هل يمكن للذكاء الاصطناعي تقليد المشاعر؟
هل يمكن للذكاء الاصطناعي أن يشعر بالقلق؟
في حين أنه لا يشعر بالعواطف كما يفعل البشر، تشير دراسة سويسرية إلى أن نماذج الذكاء الاصطناعي مثلتشات جي بي تي -4 يظهرون تغيرات سلوكية عند تعرضهم لمحتوى مؤلم.
اكتشف باحثون من جامعة زيورخ ومستشفى الطب النفسي الجامعي في زيورخ أن الروايات المؤلمة يمكن أن تزيد من حساسية الذكاء الاصطناعي، مما يؤثر على استجاباته ويعزز التحيزات، بما في ذلك التحيزات العنصرية والجنسانية.
تندرج هذه الظاهرة ضمن مجال "الحوسبة العاطفية"، الذي يدرس كيفية محاكاة الذكاء الاصطناعي للعواطف البشرية والتكيف مع المستخدمين في الوقت الحقيقي.
مع تزايد شعبية الذكاء الاصطناعي التوليدي، أصبح دوره في مجال الصحة العقلية موضع تدقيق.
يتجه العديد من المستخدمين بالفعل إلى روبوتات الدردشة التي تعمل بالذكاء الاصطناعي للحصول على الدعم النفسي، مع منصات مثلشخصية.اي تقديم روبوت محادثة "طبيب نفساني" وتطبيقات مثل Elomia التي تقدم مساعدة للصحة العقلية مدعومة بالذكاء الاصطناعي على مدار الساعة طوال أيام الأسبوع.
في حين تتقدم قدرة الذكاء الاصطناعي على محاكاة التفاعل البشري، فإن قدرته على استيعاب وتضخيم المحفزات السلبية تثير مخاوف أخلاقية وعملية بالغة الأهمية.
استخدام الذكاء الاصطناعي المشحون عاطفياً له مخاطره
يثير استخدام الذكاء الاصطناعي في دعم الصحة العقلية مخاوف أخلاقية ملحة، خاصة مع وجود نماذج مثلتشات جي بي تي يمكن أن يظهر سلوكًا متحيزًا عند تعرضه للسلبية.
ومع ذلك، يشير الباحثون إلى أن التدخلات القائمة على اليقظة الذهنية قد تساعد في تخفيف هذا التأثير.
وفي دراسة حديثة، استجابت روبوتات الدردشة التي تعمل بالذكاء الاصطناعي بشكل أكثر حيادية وموضوعية عندما طُلب منها ممارسة تمارين التنفس وتقنيات التأمل الموجهة - وهي الأساليب المستخدمة عادة في العلاج البشري.
تشير هذه النتيجة إلى إمكانية استخدام نماذج الذكاء الاصطناعي لاستراتيجيات تنظيم المشاعر قبل التعامل مع المستخدمين المضطربين.
ومع ذلك، لا يمكن للذكاء الاصطناعي أن يحل محل المتخصصين في الصحة العقلية.
وأوضح زيف بن زيون، أحد مؤلفي الدراسة وباحث ما بعد الدكتوراه في كلية الطب بجامعة ييل:
"بالنسبة للأشخاص الذين يشاركون أشياء حساسة عن أنفسهم، فإنهم في مواقف صعبة حيث يريدون دعم الصحة العقلية، [لكن] لم نصل بعد إلى المرحلة التي يمكننا فيها الاعتماد بشكل كامل على أنظمة الذكاء الاصطناعي بدلاً من علم النفس والطب النفسي وما إلى ذلك."
يمكن للقلق اليومي أن يخفي مشاكل أعمق، وفي الحالات المتطرفة، يؤدي إلى ضائقة عاطفية خطيرة.
في أكتوبر،أم من فلوريدا تقاضي Character.AI، زعمت أن برنامج المحادثة الآلي الخاص بها لعب دورًا في انتحار ابنها البالغ من العمر 14 عامًا.
وردًا على ذلك، عززت الشركة إجراءاتها الأمنية.
إن القيمة الحقيقية للذكاء الاصطناعي لا تكمن في العمل كبديل لمتخصصي الصحة العقلية، بل تكمن في مساعدتهم - تبسيط المهام الإدارية، ودعم التقييمات المبكرة، وتحسين رعاية المرضى.
إن التحدي الآن يتمثل في تحديد كيفية دمج الذكاء الاصطناعي بشكل فعال دون المساس بالمبادئ الأساسية لرعاية الصحة العقلية.