أعلنت شركة OpenAI في بيانٍ رسمي تقديرات بشأن نسبة المستخدمين الذين يُظهرون مؤشرات محتملة على اضطرابات نفسية خطِرة في أثناء استخدامهم روبوتها المستند إلى الذكاء الاصطناعي ChatGPT، مثل الهوس والذهان والأفكار الانتحارية.
وقالت الشركة إن نحو 0.07% من المستخدمين النشطين أسبوعيًا أظهروا مثل هذه العلامات، مؤكدةً أن روبوت الدردشة الذكي بات قادرًا على تعرّف المحادثات الحسّاسة والتعامل معها بحذر وتعاطف.
ووصفت OpenAI هذه الحالات بأنها “نادرة للغاية”، لكن هذه النسبة الصغيرة تُعادل ملايين الأشخاص، بالنظر إلى أنّ عدد مستخدمي ChatGPT بلغ حديثًا 800 مليون مستخدم وفقًا للرئيس التنفيذي سام ألتمان.
وأوضحت الشركة أنها أنشأت شبكة عالمية من الخبراء تضم أكثر من 170 طبيبًا نفسيًا وأخصائيًا نفسيًا وأطباء رعاية أولية من 60 دولة، لتقديم المشورة حول كيفية استجابة ChatGPT لمثل هذه المواقف. وقد طوّر هؤلاء الخبراء مجموعة من الردود الآلية التي تشجّع المستخدمين على طلب المساعدة في العالم الواقعي عند الحاجة.
وصرّحت الشركة بأنها ترصد محادثات تتضمّن مؤشرات صريحة على نوايا انتحارية، مشيرةً إلى أن التحديثات الأخيرة في ChatGPT صُمّمت بنحو خاص للتعامل بأمان وتعاطف مع مؤشرات الهوس أو الأوهام، وكذلك لرصد الإشارات غير المباشرة على احتمالية إيذاء الذات.
وأكدت OpenAI أن المنصة باتت قادرة على إعادة توجيه المحادثات الحساسة إلى نماذج أكثر أمانًا تُفتح في نافذة جديدة، لتقليل الأخطار على المستخدمين.
وتأتي هذه التطورات في ظل تصاعد التدقيق القانوني بشأن طريقة تفاعل ChatGPT مع المستخدمين، بعد أن رفعت عائلة في كاليفورنيا دعوى قضائية على OpenAI تتهمها بالمسؤولية عن وفاة ابنها البالغ من العمر 16 عامًا، الذي يُزعم أن الروبوت شجّعه على الانتحار في أبريل الماضي، وهي أول قضية من نوعها تتّهم الشركة بـ”القتل الخطأ”.
الذكاء الاصطناعي ليس بديلًا عن الاستشارات النفسية
قد يعطي الذكاء الاصطناعي المستخدمين إحساسًا زائفًا بأنهم يتعاملون مع إنسان حقيقي، وهو ما قد يُفاقم مشاكلهم النفسية بدلًا من تخفيفها، وقد لا تكفي تحذيرات OpenAI وحدها؛ لأن من يمر بأزمة نفسية قد لا يدرك خطورة الموقف أو لا يطلب الاستشارة المناسبة من المتخصصين.
ويشير الخبراء إلى أن أدوات الذكاء الاصطناعي مثل ChatGPT قد تساعد في تخفيف العزلة أو القلق لدى بعض المستخدمين، لكنها لا تملك القدرة على التقييم الإكلينيكي أو التدخل العلاجي الحقيقي، مما يجعل الاعتماد عليها بنحو مفرط خطرًا في الحالات النفسية الحساسة.
ويطالب مختصون بوضع ضوابط دولية لاستخدام الذكاء الاصطناعي في المحادثات ذات الطابع النفسي، تضمن حماية المستخدمين وتلزم الشركات بتصميم آليات إنذار فوري أو الإحالة إلى خطوط المساعدة النفسية عند ظهور مؤشرات خطر.
وتواجه الشركات المطوّرة مثل OpenAI مأزقًا أخلاقيًا بين تقديم المساعدة للمستخدمين والحفاظ على حدود دور الذكاء الاصطناعي، خاصةً في المواقف التي قد يتطلب فيها الأمر تدخلًا بشريًا عاجلًا لإنقاذ حياة شخص ما من أزمة نفسية.
نسخ الرابط تم نسخ الرابط
المصدر: البوابة العربية للأخبار التقنية
أخبار متعلقة :