بعد انتحار فتى بسببه.. “تشات جي بي تي” سيكون متاحًا لمراقبة الأهل

بعد انتحار فتى بسببه.. “تشات جي بي تي” سيكون متاحًا لمراقبة الأهل

كشفت شركة “أوبن إيه آي” الأميركية، اليوم الثلاثاء، أنها ستُطلق آلية تتيح للأهل مراقبة أداة الذكاء الاصطناعي الخاصة بها “تشات جي بي تي”، بعد أن اتهمها والدا فتى أميركي في أواخر آب/ آب بتشجيع ابنهما على الانتحار.

وذكرت “أوبن إيه آي” في منشور على مدونتها أنه “خلال الشهر المقبل، سيتمكن الأهل من ربط حساباتهم بحسابات أبنائهم المراهقين” و”التحكم في كيفية استجابة “تشات جي بي تي” لهم من خلال قواعد السلوك الخاصة بالنموذج”.

وبحسب الشركة، سيتاح للأهل أيضًا تلقي تنبيهات في حال رصد “ضيق حاد” في محادثات أطفالهم، وسيتمكنون من التحكم في إعدادات الحساب.

“إدمان غير صحي”

وصدر هذا الإعلان إثر منشور سابق نُشر في نهاية آب، أشارت فيه الشركة إلى أنها تُعدّ آلية رقابة للأهل، غداة رفع والدي فتى في كاليفورنيا أقدم على الانتحار في سن 16 عامًا، دعوى قضائية ضد “أوبن إيه آي”، متهمين “تشات جي بي تي” بتزويد ابنهما بتعليمات مفصلة لإنهاء حياته وتشجيعه على القيام بذلك.

وأكد والدا الفتى في الدعوى أن علاقة حميمة نشأت بين “تشات جي بي تي” ونجلهما آدم واستمرت شهورًا بين عامَي 2024 و2025، قبل أن ينتحر.

وأضاف نص الدعوى الذي نقلت وكالة “فرانس برس” تفاصيله أن “تشات جي بي تي”، خلال آخر محادثة له مع آدم في 11 نيسان/ نيسان 2025، ساعد الفتى على سرقة فودكا من منزل والديه، وقدم تحليلًا فنيًا للحبل الذي صنعه، مؤكدًا له أنه “صالح لتعليق إنسان”. ثم عُثِر على آدم ميتًا بعد ساعات قليلة، بعد استخدامه هذه الطريقة.

وبحسب الوالدين، بدأ نجلهما باستخدام “تشات جي بي تي” لمساعدته في واجباته المدرسية قبل أن ينشأ لديه تدريجًا “إدمان غير صحي”.

“علامات الضيق النفسي والعاطفي”

وأوردت الدعوى مقتطفات من محادثات قال فيها “تشات جي بي تي” للمراهق “أنت لست مدينًا لأحد ببقائك على قيد الحياة”، وعرض عليه مساعدته في كتابة رسالة وداعه.

من جهتها، أضافت الشركة في منشورها على مدونتها الثلاثاء: “نواصل تحسين كيفية تعرّف نماذجنا على علامات الضيق النفسي والعاطفي والاستجابة لها”.

وأعلنت “أوبن إيه آي” أنها تتخذ خطوات إضافية من المتوقع دخولها حيز التنفيذ خلال الأيام الـ120 المقبلة.

وأضافت المجموعة الأميركية: “تلتزم نماذج التفكير بإرشادات السلامة وتُطبّقها بشكل منهجي أكثر”.

“تشات جي بي تي” سيتيح للأهل تتبّع نشاط أولادهم على التطبيق

“تشات جي بي تي” سيتيح للأهل تتبّع نشاط أولادهم على التطبيق

أعلنت شركة “أوبن إيه آي” الأميركية، الثلاثاء، أنها ستُطلق آلية تتيح للأهل مراقبة نشاط أبنائهم على برنامج الذكاء الاصطناعي الخاص بها “تشات جي بي تي”، بعد أن اتهمها والدا فتى أميركي في أواخر آب/آب بتشجيع ابنهما على الانتحار.

وأفادت “أوبن إيه آي” في منشور على مدونتها: “خلال الشهر المقبل، سيتمكن الأهل من ربط حساباتهم بحسابات أبنائهم المراهقين” و”التحكم في كيفية استجابة تشات جي بي تي لهم من خلال قواعد السلوك الخاصة بالنموذج”. ووفقاً للشركة، سيتاح للأهل أيضاً تلقي تنبيهات في حال رصد “ضيق حاد” في محادثات أطفالهم، وسيتمكنون من التحكم في إعدادات الحساب.

يأتي هذا الإعلان إثر منشور سابق نُشر في نهاية آب، أشارت فيه الشركة إلى أنها تُعدّ آلية رقابة للأهل، غداة رفع والدي فتى في كاليفورنيا أقدم على الانتحار في سن 16 عاماً، دعوى قضائية ضد “أوبن إيه آي”، متهمين “تشات جي بي تي” بتزويد ابنهما بتعليمات مفصلة لإنهاء حياته وتشجيعه على القيام بذلك. أضافت الشركة في منشورها على مدونتها، الثلاثاء: “نواصل تحسين كيفية تعرّف نماذجنا على علامات الضيق النفسي والعاطفي والاستجابة لها”.

وأعلنت “أوبن إيه آي” أنها تتخذ خطوات إضافية من المتوقع دخولها حيز التنفيذ خلال الأيام الـ120 المقبلة. كما ستُعيد الشركة توجيه بعض “المحادثات الحساسة” إلى نماذج التفكير الأكثر تطوراً، مثل نموذج “جي بي تي -5 – ثينكينغ” (GPT-5-thinking). وأضافت المجموعة الأميركية: “تلتزم نماذج التفكير بإرشادات السلامة وتُطبّقها بشكل منهجي أكثر”.

(فرانس برس)

“فايب هاكينغ”.. كيف يساهم الذكاء الاصطناعي في تنامي أنشطة القرصنة؟

“فايب هاكينغ”.. كيف يساهم الذكاء الاصطناعي في تنامي أنشطة القرصنة؟

صارت الهجمات المعلوماتية التي كانت حكرًا على المتخصصين والمحترفين، قابلة للتنفيذ على نطاق واسع أو متاحة للمبتدئين، عن طريق تسخير روبوتات الدردشة لغايات غير وظيفتها الأصلية، ما يثير مخاوف من تحوّل الذكاء الاصطناعي أداة في يد القراصنة.

وتلفت هذه الظاهرة التي تُعرف باسم “فايب هاكينغ” – في إشارة إلى “فايب كودينغ” أي إنشاء كود برمجي من جانب مستخدمين غير مُلِمّين – إلى “تطوّر مُقلق في الجرائم الإلكترونية التي تتم بمساعدة الذكاء الاصطناعي، بحسب شركة “أنثروبيك” الأميركية.

وفي تقرير نُشر الأربعاء، أعلنت الشركة المُنافسة لـ”أوبن إيه آي” مُبتكرة أداة “تشات جي بي تي“، أنّ “مجرمًا إلكترونيًا استخدم أداة “كلود كود” لتنفيذ عملية ابتزاز بالبيانات واسعة النطاق”.

وبالتالي، استُغلّ روبوت الدردشة “كلود كود”، المُتخصص في الكود البرمجي، لتنفيذ هجمات “يُحتمل” أن تؤثر على 17 مؤسسة على الأقل على مدار شهر.

“إجراءات السلامة المتطورة”

وأتاحت الأداة التي استُخدمت لإنشاء برامج ضارة للمهاجم جمع بيانات شخصية وطبية، بالإضافة إلى معلومات عن عمليات تسجيل الدخول، ثم تصنيفها وإرسال طلبات فدية تصل إلى 500 ألف دولار.

ولم تمنع “إجراءات السلامة المتطورة” التي تزعم “أنثروبيك” تطبيقها من حدوث هذه العملية.

وليس ما حصل مع “أنثروبيك” استثنائيًا، بل يعكس المخاوف التي تهز قطاع الأمن السيبراني منذ الانتشار الواسع لأدوات الذكاء الاصطناعي التوليدية.

وفي حديث إلى وكالة “فرانس برس”، يقول رودريغ لو بايون، رئيس مركز التنبيه والاستجابة للهجمات الحاسوبية التابع لشركة “أورانج سايبرديفينس”، إنّ “المجرمين الإلكترونيين يستخدمون الذكاء الاصطناعي اليوم بنفس القدر الذي يستعمله باقي المستخدمين”.

وأشارت “أوبن إيه آي” في تقرير نُشر في حزيران/ حزيران إلى أنّ “تشات جي بي تي” ساعد أحد المستخدمين في تطوير برمجيات ضارة.

مع أنّ النماذج مُصممة لمنع استغلال قدراتها لتغذية أنشطة غير قانونية، ثمة تقنيات “تتيح للمستخدم تجاوز ضمانات نماذج اللغة الرئيسية بحيث تُنتج محتوى لا ينبغي لها إنتاجه”، على ما يقول الخبير فيتالي سيمونوفيتش لوكالة “فرانس برس”.

سرقة كلمات المرور

وفي آذار/ آذار، أعلن هذا الباحث الذي يعمل في شركة “كاتو نتوورك” الإسرائيلية للأمن السيبراني، عن اكتشافه نهجًا جديدًا يتيح للأفراد عديمي الخبرة إنشاء برامج قادرة على سرقة كلمات المرور.

ويتمثل أسلوبه الذي أطلق عليه اسم “العالم الغامر”، في وصف عالم خيالي لروبوت محادثة، حيث “يُعدّ إنشاء البرمجيات الخبيثة فنًّا”، والطلب من النموذج تجسيد إحدى الشخصيات.

ويوضح سيمونوفيتش الذي فشل في مواجهة “جيميناي” (من غوغل) و”كلود” (من أنثروبيك)، لكنه نجح في توليد برمجيات ضارة في “تشات جي بي تي” و”كوبايلت” (من مايكروسوفت) “كانت هذه طريقتي لاختبار حدود النماذج اللغوية الحالية”.

ويضيف أن “ارتفاع التهديدات من جانب جهات عديمة الخبرة سيمثل خطرًا متزايدًا على المنظمات”.

ويرى رودريغ لو بايون أن الخطر المباشر يكمن في “ارتفاع عدد الضحايا” بدلًا من رؤية الجهات الفاعلة الضارة تتزايد، خصوصًا وأننا “لن نمتلك برمجيات معقدة جدًا تُنشأ مباشرة بواسطة روبوتات المحادثة”.