تضيف OpenAI إلى ChatGPT إشعارات لجهات الاتصال الموثوقة في حالات الأزمات
أضافت OpenAI إلى ChatGPT ميزة Trusted Contact لإخطار المقربين عند الأزمات. وإذا اكتشف روبوت الدردشة نقاشًا حول إيذاء النفس أو الانتحار، فستتلقى جهات الاتصال الم

أطلقت OpenAI ميزة أمان اختيارية جديدة تسمى Trusted Contact لـ ChatGPT. تتيح للمستخدمين البالغين تحديد جهات اتصال موثوقة — الأقارب أو الأصدقاء أو الأوصياء — سيتم إخطارهم إذا كشفت النظام عن علامات أزمة نفسية.
كيف يعمل
الميزة مباشرة: يحدد المستخدم جهة اتصال موثوقة واحدة أو أكثر ويوفر معلومات الاتصال الخاصة بهم. إذا اكتشف ChatGPT أن شخصاً ما يناقش إيذاء النفس أو الانتحار، يرسل النظام إخطارات إلى هذه الجهات. طورت OpenAI الميزة بناءً على تحليل الخبراء: تُظهر الأبحاث أنه عندما يكون الشخص في أزمة حادة، فإن الدعم من شخص يعرفه ويثق به يمكن أن يكون حاسماً. هذا ليس بديلاً للمساعدة المهنية — بل هو مكمل لها. تُضاف Trusted Contact كطبقة أخرى من الأمان للآليات القائمة. عندما يذكر المستخدم الانتحار أو إيذاء النفس، يقدم ChatGPT خطوط أزمة محلية (على سبيل المثال، 988 في الولايات المتحدة). الآن يُضاف إلى ذلك القدرة على إنذار جهات الاتصال الموثوقة.
الاختيارية كمبدأ
هذه ليست ميزة إلزامية. يقرر المستخدمون ما إذا كانوا يريدون تفعيلها، ومن سيحدد كجهات اتصال موثوقة، ومتى يعطلونها. هذا النهج حاسم للثقة: الصحة النفسية مسألة حميمة، ولن يوافق الجميع على المراقبة الآلية، حتى من أجل سلامتهم الخاصة.
- للمستخدمين السيطرة الكاملة على قائمة جهات اتصالهم الموثوقة
- يتم إرسال الإخطارات فقط عند كشف نقاش الأزمة
- يمكن تعطيل الميزة في أي وقت
ستتلقى جهات الاتصال ليس مجرد إخطار، بل معلومات عما حدث وقائمة بالموارد لتقديم الدعم. الفكرة هي إعطاء الناس أداة، وليس إثارة الذعر.
السياق: مسؤولية شركات الذكاء الاصطناعي
عملت OpenAI سابقاً على كيفية استجابة أنظمة الذكاء الاصطناعي لذكر الانتحار وإيذاء النفس. التوازن هنا معقد: من جهة، تحتاج إلى مساعدة شخص في ضائقة؛ من جهة أخرى، لا يجب أن تنتهك الخصوصية أو تخلق انطباعاً خاطئاً بأن الذكاء الاصطناعي يمكن أن يحل محل المساعدة الحقيقية. تجرب العديد من الشركات في هذا المجال ميزات الأمان. يستخدم البعض روبوتات الدردشة للفحص، والبعض الآخر يدمج خطوط الأزمة. Trusted Contact فكرة تقع في مكان ما في المنتصف: ليس سيطرة كاملة، بل شبكة دعم موسعة.
"تم بناء
Trusted Contact على فكرة بسيطة تم التحقق منها من قبل الخبراء: عندما قد يكون شخص ما في أزمة، فإن ربطه بشخص يعرفه ويثق به يمكن أن يكون له قيمة حقيقية"، تكتب OpenAI.
ماذا يعني هذا
هذا يعكس المسؤولية المتزايدة لشركات الذكاء الاصطناعي عن رفاهية المستخدمين. الميزة لا تدعي أنها علاج شامل، لكنها أداة أخرى في الترسانة — جسر بين التكنولوجيا والرعاية الإنسانية، بين روبوت الدردشة والأشخاص الذين هم حقاً مستعدون للمساعدة.