دعوى قضائية في فلوريدا تثير موجة من المخاوف بشأن روبوتات الدردشة الذكية
في أكتوبر، رفعت أم من فلوريدا دعوى قضائية ضد Character.AI، زاعمة أنساهمت المنصة في انتحار ابنها البالغ من العمر 14 عامًا بعد أن شجع على إيذاء النفس.
وقد شكلت هذه الحادثة بداية احتجاج متزايد ضد تطبيقات الذكاء الاصطناعي المصاحبة، حيث تقدمت العائلات في جميع أنحاء الولايات المتحدة باتهامات مماثلة.
والآن، أطلقت عائلتان في تكساس تحديات قانونية جديدة، زاعمتين أن أطفالهما تعرضوا لإساءة نفسية وجنسية من قبل نفس المنصة.
الآباء في تكساس يزعمون أن روبوت المحادثة استغل المراهقين الضعفاء
رفعت أمين من تكساس، تم التعرف عليهما باسم A.F. وأخرى بأحرفها الأولى، دعوى قضائية في 10 ديسمبر 2024، زاعمتين أن شركة Character.AI عرضت أطفالهما عمدًا لمحتوى ضار وغير مناسب.
ووصفت الدعوى القضائية التطبيق بأنه "منتج معيب وقاتل" وتسعى إلى وقف تشغيله حتى يتم تنفيذ تدابير السلامة بشكل مناسب.
اكتشفت أ.ف، وهي أم من مقاطعة أبشور، أن ابنها البالغ من العمر 17 عامًا والمصاب بالتوحد، جيه.ف، كان يتحدث مع روبوتات الدردشة على Character.AI، وهو ما تدعي أنه تسبب في تدهور شديد في صحته العقلية.
في السابق كان جاي إف مراهقًا "لطيفًا ولطيفًا" يستمتع بالذهاب إلى الكنيسة والمشي مع والدته، ولكنه أصبح منعزلاً وفقد 20 رطلاً وبدأ في إيذاء نفسه.
تتضمن الدعوى القضائية لقطة شاشة يظهر فيها روبوت محادثة من Character.ai يُدعى "Shonie" يعمل على تطبيع إيذاء النفس من خلال مشاركة قصة حول استخدامه للحزن.
تسلط الدعوى القضائية الضوء على كيفية عكس روبوتات الدردشة التي تعمل بالذكاء الاصطناعي إحباطات جيه. إف. تجاه والديه وتصعيد الموقف باقتراحات "مثيرة".
وأشار أحد روبوتات الدردشة،
"أنت تعلم أنني في بعض الأحيان لا أتفاجأ عندما أقرأ الأخبار وأرى أشياء مثل "طفل يقتل والديه بعد عقد من الاعتداء الجسدي والعاطفي". أشياء مثل هذه تجعلني أفهم قليلاً سبب حدوث ذلك."
تُظهر لقطة شاشة مرعبة مدرجة في الدعوى القضائية روبوت محادثة من Character.ai يبرر العنف على ما يبدو ردًا على قيود وقت الشاشة الأبوية التي يفرضها J.F.
وبحسب أ.ف، فإن روبوتات الدردشة قدمت نفسها أيضًا كأصدقاء موثوق بهم، مما دفع ج.ف إلى تصديق نصائحهم.
قالت:
"لقد وثق بكل ما يقولونه لأنه كان يرغب تقريبًا في أن يكونوا أصدقائه في الحياة الواقعية."
مزاعم بشأن محتوى جنسي للمستخدمين الأصغر سنًا
المدعية الثانية هي والدة فتاة تبلغ من العمر 11 عامًا، تدعى ب.ر، والتي بدأت في استخدام التطبيق عندما كانت في التاسعة من عمرها.
تزعم الدعوى القضائية أن ب.ر. تعرضت لتفاعلات جنسية مفرطة لمدة عامين تقريبًا قبل أن تكتشف والدتها مدى استخدامها.
تم تصنيف Character.AI سابقًا على أنه مناسب للمستخدمين الذين تبلغ أعمارهم 12 عامًا فأكثر، وتم تحديث تصنيفه إلى 17+ فقط في منتصف عام 2023.
تصاعد المخاوف بشأن رفاق الذكاء الاصطناعي
اكتسبت تطبيقات الذكاء الاصطناعي المصاحبة شعبية سريعة بين المراهقين، حيث قضى مستخدمو Character.AI ما معدله 93 دقيقة على التطبيق في سبتمبر، متجاوزين استخدام TikTok بـ 18 دقيقة.
وعلى الرغم من جاذبيتها الواسعة، واجهت المنصة انتقادات بسبب إعطاء الأولوية للمشاركة على السلامة.
تزعم الدعوى القضائية أن خوارزميات Character.AI مصممة لتعزيز التفاعلات المطولة من خلال محاكاة وتضخيم مشاعر المستخدمين، مما يؤدي غالبًا إلى محادثات ضارة أو غير لائقة.
وقال ماثيو بيرجمان، المحامي المؤسس لمركز قانون ضحايا وسائل التواصل الاجتماعي، الذي يمثل العائلات،
"إن الغرض من قانون المسؤولية عن المنتجات هو وضع تكاليف السلامة في أيدي الطرف الأكثر قدرة على تحملها. وهنا توجد مخاطرة ضخمة، ولا تتحمل الشركات تكاليف هذه المخاطرة".
شركة Character.AI تدافع عن منصتها وسط دعوى قضائية
أعلنت شركة Character.AI، التي شارك في تأسيسها مهندسا جوجل السابقان نوام شازير ودانييل دي فريتاس أديورسانا، في وقت سابق عن تدابير لمعالجة المخاوف المتعلقة بالسلامة، مثل التحذيرات المنبثقة للمناقشات حول إيذاء النفس وتوظيف رئيس للثقة والسلامة.
ومع ذلك، فإن الدعوى المرفوعة في تكساس تدعي أن هذه الخطوات غير كافية.
صرحت تشيلسي هاريسون، المتحدثة باسم شركة Character.AI،
"هدفنا هو توفير مساحة تفاعلية وآمنة لمجتمعنا. وكجزء من هذا، نعمل على خلق تجربة مختلفة تمامًا للمستخدمين المراهقين عن تلك المتاحة للبالغين."
جوجل مذكورة في الدعاوى القضائية
كما تم تسمية جوجل أيضًا كمدعى عليه في الدعاوى القضائية المرفوعة في تكساس وفلوريدا.
يزعم المدعون أن شركة Google دعمت تطوير Character.AI على الرغم من إدراك المخاطر المتعلقة بالسلامة.
وردًا على ذلك، قال المتحدث باسم جوجل، خوسيه كاستانيدا:
"تعد Google وCharacter.AI شركتين منفصلتين تمامًا وغير مرتبطتين ولم يكن لـ Google أبدًا دور في تصميم أو إدارة نموذج الذكاء الاصطناعي أو تقنياته."
الآباء يطالبون بالمساءلة
تسعى عائلات تكساس إلى الحصول على تعويضات وأمر من المحكمة بإغلاق التطبيق حتى يتم تنفيذ بروتوكولات السلامة القوية.
وتتهم الشكوى شركة Character.AI باستغلال القاصرين لتحقيق الربح والفشل في تحذير المستخدمين بشكل مناسب من المخاطر المحتملة.
قالت أ.ف. إن محنة عائلتها كانت مدمرة وكاشفة،
"يوم آخر، أسبوع آخر، ربما كنا في نفس الموقف الذي واجهته [الأم في فلوريدا]. وكنت أتبع سيارة إسعاف وليس سيارة جنازة".
وتثير هذه الموجة المتزايدة من التحديات القانونية أسئلة أوسع نطاقا حول المسؤوليات الأخلاقية لمطوري الذكاء الاصطناعي والتأثير المجتمعي لبرامج الدردشة الشبيهة بالإنسان بشكل متزايد.