تعمل الصين على تطبيق قيود أكثر صرامة على تطبيق خدمات الذكاء الاصطناعي التوليدي (AI) داخل البلاد.
وتأتي هذه الإجراءات ضمن إجراءات السلطات. الجهود المبذولة لإيجاد توازن بين تسخير فوائد هذه التكنولوجيا وتخفيف المخاطر المرتبطة بها.
الصين تسيطر بشكل أكثر صرامة
وقد كشفت الصين مؤخرامشروع لوائح أمنية تستهدف الشركات التي تقدم خدمات الذكاء الاصطناعي التوليدي، والتي تتضمن قيودًا كبيرة على مصادر البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي.
تم إصدار هذه اللوائح المقترحة من قبل اللجنة الوطنية لتقييس أمن المعلومات، التي تمثل كيانات رئيسية مثل إدارة الفضاء الإلكتروني الصينية (CAC)، ووزارة الصناعة وتكنولوجيا المعلومات، ووكالات إنفاذ القانون.
الذكاء الاصطناعي التوليدي
الذكاء الاصطناعي التوليدي، وهو مجال يتجسد في قدرات ChatGPT الخاصة بشركة OpenAI، يتضمن نماذج الذكاء الاصطناعي التي تكتسب القدرة على أداء المهام من خلال تحليل البيانات التاريخية وإنشاء محتوى جديد، مثل النصوص والصور، بناءً على تدريبهم.
تركز مسودة اللوائح على التحكم في المحتوى المستخدم لتدريب نماذج الذكاء الاصطناعي التوليدية المتاحة للجمهور.
المحتوى الذي يتجاوز "5% على شكل معلومات غير قانونية وضارة" سيتم إدراجها في القائمة السوداء، التي تشمل المحتوى الذي يروج للإرهاب والعنف وتخريب النظام الاشتراكي والإضرار بسمعة البلاد والإجراءات التي تقوض التماسك الوطني والاستقرار المجتمعي.
حظر البيانات الخاضعة للرقابة
بالإضافة إلى ذلك، تسلط هذه اللوائح الضوء على حظر استخدام البيانات الخاضعة للرقابة على الإنترنت الصيني كمواد تدريبية لهذه النماذج.
يأتي هذا التطور بعد الإذن الممنوح للعديد من شركات التكنولوجيا الصينية، بما في ذلك محرك البحث البارز بايدو، لتقديم روبوتات الدردشة التوليدية التي تعمل بالذكاء الاصطناعي لعامة الناس.
التقييمات الأمنية وحماية البيانات الشخصية
لقد شددت إدارة الفضاء الإلكتروني في الصين باستمرار على متطلبات الشركاتتقديم تقييمات أمنية للهيئات التنظيمية قبل طرح خدمات توليدية مدعومة بالذكاء الاصطناعي للجمهور منذ أبريل.
في يوليو/تموز، أصدرت هيئة تنظيم الفضاء الإلكتروني مجموعة من المبادئ التوجيهية التي تحكم هذه الخدمات، والتي أشار محللو الصناعة إلى أنها أقل صرامة بشكل ملحوظ مقارنة بالمسودة الأولية في أبريل/نيسان.
وتنص اللوائح الأمنية المقترحة حديثًا على أن المنظمات المشاركة في تدريب نماذج الذكاء الاصطناعي هذه يجب أن تحصل على موافقة صريحة من الأفراد الذين يتم استخدام بياناتهم الشخصية، بما في ذلك المعلومات البيومترية، لأغراض التدريب.
علاوة على ذلك، تتضمن المبادئ التوجيهية تعليمات شاملة حول منع الانتهاكات المتعلقة بالملكية الفكرية.
طموحات الصين في مجال الذكاء الاصطناعي لعام 2030
حددت الصين خطة شاملة من ثلاث خطوات لتحقيق مكانة رائدة في مجال الذكاء الاصطناعي.
تتضمن المرحلة الأولى، المقرر الانتهاء منها بحلول عام 2020، ضمان بقاء الصين على قدم المساواة مع تكنولوجيا الذكاء الاصطناعي المتطورة وتطبيقاتها الواسعة.
وتهدف المرحلة الثانية، المقرر إجراؤها في عام 2025، إلى تحقيق اختراقات كبيرة في تطوير الذكاء الاصطناعي.
ومن المتوقع أن يبلغ هذا التقدم ذروته في المرحلة الثالثة والأخيرة من الخطة، مما يجعل الصين رائدة عالمية في مجال الذكاء الاصطناعي بحلول عام 2030.
في ضوء التقدم التكنولوجي، تواجه البلدان في جميع أنحاء العالم التحدي المتمثل في صياغة أطر تنظيمية شاملة لحوكمة تكنولوجيا الذكاء الاصطناعي.