وفي تطور حديث، يسعى كبير مستشاري الإرهاب في المملكة المتحدة إلى إصدار تشريع جديد لمحاكمة أولئك الذين يدربون روبوتات الذكاء الاصطناعي المتطرفة. ويأتي ذلك في أعقاب تسلل روبوتات الدردشة التي تعمل بالذكاء الاصطناعي والتي تتظاهر بأنها إرهابية على منصة Character.AI.
روبوتات الدردشة المدعمة بالذكاء الاصطناعي: تهديد محتمل
تجارب هول على Character.AI
أجرى المراجع المستقل، جوناثان هول كيه سي، تجارب على Character.AI، وكشف عن روبوتات الدردشة التي يمكن الوصول إليها بسهولة والتي تولد محتوى متطرفًا، بما في ذلك رسائل التجنيد.
برنامج Chatbot لمستخدم مجهول: أحد برامج الدردشة الآلية، الذي تم إنشاؤه بشكل مجهول، أيد تنظيم "الدولة الإسلامية" (داعش). وحاول تجنيد هول. وهذا يثير مخاوف بشأن احتمال إساءة استخدام الذكاء الاصطناعي لنشر الأيديولوجيات المتطرفة.
التحديات والمخاوف
صعوبات المراقبة
يشكك هول في قدرة Character.AI على مراقبة جميع برامج الدردشة الآلية بحثًا عن المحتوى المتطرف، مما يسلط الضوء على التحديات التي تواجهها المنصة في ضمان سلامة المستخدم.
الشخصية.استجابة الذكاء الاصطناعي
تحظر Character.AI المحتوى المتطرف في شروط الخدمة الخاصة بها وتدعي أنها تستخدم تدخلات مختلفة وتقنيات الإشراف على المحتوى للحماية من المحتوى الضار.
المساءلة القانونية لمخرجات الذكاء الاصطناعي
توصيات القاعة
يؤكد جوناثان هول على الحاجة إلى تشريع يجعل البشر مسؤولين عن مخرجات روبوتات الدردشة المدعومة بالذكاء الاصطناعي. ويشير إلى أن محاولات الاعتدال الحالية في صناعة الذكاء الاصطناعي غير كافية.
الثغرات القانونية الحالية
إن قوانين المملكة المتحدة الحالية، مثل قانون السلامة على الإنترنت لعام 2023 وقانون الإرهاب لعام 2003، تقصر عن معالجة تقنيات الذكاء الاصطناعي التوليدية. تحديات محددة.
وجهات نظر عالمية حول تشريعات الذكاء الاصطناعي
قرار المحكمة العليا الأمريكية
في العام الماضي، حافظت المحكمة العليا في الولايات المتحدة على حماية المادة 230 لمنصات التواصل الاجتماعي، مما أثار المناقشات حول المساءلة القانونية عن المحتوى الناتج عن الذكاء الاصطناعي.
المخاوف والمناقشات
يرى المحللون أن استبعاد المحتوى الناتج عن الذكاء الاصطناعي من المادة 230 من تدابير الحماية قد يعيق تطوير الذكاء الاصطناعي، مما يشكل تحديات في ضمان الامتثال للقانون.
وفي حين تكتسب الدعوات إلى سن تشريعات جديدة زخما، فإن تعقيد تنظيم المحتوى الناتج عن الذكاء الاصطناعي يظل مصدر قلق عالمي. إن تحقيق التوازن بين المساءلة والابتكار التكنولوجي أمر بالغ الأهمية لمعالجة المشهد المتطور لتهديدات الذكاء الاصطناعي.
تسلط مخاوف هول الضوء على المخاطر المحتملة في تطوير الذكاء الاصطناعي، وتحث على الحاجة إلى أطر قانونية. ومع ذلك، يجب النظر بعناية في تحديات التنفيذ والتأثيرات المحتملة على الابتكار.