نموذج الذكاء الاصطناعي من جوجل يواجه تدقيقًا من الاتحاد الأوروبي بسبب مخاوف تتعلق بخصوصية البيانات
تتجه الجهات التنظيمية الأوروبية نحو أنظمة الذكاء الاصطناعي التي تنتجها شركة جوجل، حيث تتساءل عن مدى امتثالها لقوانين خصوصية البيانات الصارمة في الاتحاد الأوروبي.
أطلقت لجنة حماية البيانات الأيرلندية يوم الخميس تحقيقًا في نموذج Pathways Language Model 2 (PaLM2) الخاص بشركة Google، مما سلط الضوء على المخاوف من أن النموذج قد يعالج كميات هائلة من البيانات الشخصية دون تقييم مناسب لتأثيره على حقوق الخصوصية الفردية داخل الاتحاد الأوروبي.
يقع المقر الأوروبي لشركة جوجل في دبلن، وتتولى الهيئة الرقابية الأيرلندية مسؤولية ضمان التزام شركة التكنولوجيا العملاقة باللائحة العامة لحماية البيانات (GDPR)، وهي حجر الزاوية في قوانين الخصوصية في الاتحاد الأوروبي.
وبحسب هيئة حماية البيانات، يركز التحقيق على ما إذا كانت جوجل قد أجرت تقييمًا مناسبًا لتحديد ما إذا كانت أنشطة معالجة البيانات الخاصة بـ PaLM2 قد تشكل "خطرًا كبيرًا على حقوق وحريات الأفراد".
ويعد هذا التحقيق جزءًا من مبادرة أكبر عبر العديد من دول الاتحاد الأوروبي، بهدف التدقيق في التعامل مع البيانات الشخصية بواسطة أنظمة الذكاء الاصطناعي.
عندما تم الاتصال بشركة جوجل للحصول على تعليق منها، اختارت عدم الرد.
صعود نماذج الذكاء الاصطناعي واستخداماتها للبيانات
أصبحت نماذج اللغة الكبيرة، مثل PaLM2 من Google، ضرورية للغاية في مجال الذكاء الاصطناعي.
يتم بناء هذه النماذج باستخدام كميات هائلة من البيانات، وهي تدعم الخدمات التي تتراوح من التوصيات الشخصية إلى قدرات الذكاء الاصطناعي التوليدية.
على سبيل المثال، يتم بالفعل استخدام PaLM2 من Google في خدمات مثل تلخيص البريد الإلكتروني.
ورغم أن هذه التطبيقات توفر الراحة، فإنها تثير أيضا تساؤلات حول مقدار البيانات الشخصية المشاركة في تدريب مثل هذه الأنظمة وما إذا كانت خصوصية المستخدمين معرضة للخطر في هذه العملية.
وردًا على هذه المخاوف، تعكس الخطوة الأخيرة التي اتخذتها هيئة حماية البيانات الضغوط المتزايدة على شركات التكنولوجيا للامتثال لقوانين حماية البيانات الصارمة في أوروبا، خاصة مع توسع دور الذكاء الاصطناعي عبر قطاعات متعددة.
ويبقى السؤال قائما حول ما إذا كانت الشركات مثل جوجل تعمل على حماية بيانات المستخدم بشكل كاف في حين تعمل على توسيع حدود الابتكار القائم على الذكاء الاصطناعي.
الهيئات التنظيمية الأيرلندية تواصل محاسبة شركات التكنولوجيا العملاقة
لقد عززت لجنة حماية البيانات الأيرلندية مرارا وتكرارا رقابتها التنظيمية على شركات التكنولوجيا التي تتخذ من الولايات المتحدة مقرا لها والتي تعمل داخل الاتحاد الأوروبي.
لقد تولت هيئة حماية البيانات تاريخيًا زمام المبادرة في تطبيق لوائح حماية البيانات العامة (GDPR)، وخاصة مع اللاعبين الرئيسيين مثل Google وMeta، نظرًا لأن كلتا الشركتين تستضيف عملياتهما الأوروبية في أيرلندا.
يأتي تحقيق لجنة حماية البيانات في جوجل في أعقاب سلسلة من الإجراءات المماثلة التي اتخذت ضد شركات أخرى تدير نماذج الذكاء الاصطناعي على نطاق واسع.
على سبيل المثال، وافقت منصة التواصل الاجتماعي X التابعة لإيلون ماسك مؤخرًا على إيقاف معالجة بيانات المستخدمين بشكل دائم لروبوت الدردشة الذكي Grok.
وجاء هذا القرار بعد أن اتخذت هيئة الرقابة الأيرلندية إجراء قانونيا، سعيا إلى تعليق ممارسات معالجة البيانات الخاصة بشركة X.
تعكس الملفات التي قدمتها هيئة حماية البيانات الشخصية إلى المحكمة العليا الشهر الماضي إحباطها المتزايد تجاه المنصات التي تعالج البيانات الشخصية دون وجود ضمانات مناسبة.
وعلى نحو مماثل، واجهت شركة Meta Platforms Inc. ضغوطًا من الجهات التنظيمية الأيرلندية في وقت سابق من هذا العام، مما أدى إلى توقف Meta عن خططها لاستخدام محتوى المستخدم الأوروبي لتدريب أنظمة الذكاء الاصطناعي الخاصة بها.
وجاءت هذه الخطوة بعد ما وصف بـ "المشاركة المكثفة" بين DPC وMeta في يونيو.
الاتحاد الأوروبي يدفع على نطاق أوسع نحو المساءلة في مجال الذكاء الاصطناعي
إن التحقيق في برنامج PaLM2 التابع لشركة Google هو جزء واحد فقط من الجهود الأوسع نطاقًا على مستوى الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي وحماية المواطنين من انتهاكات الخصوصية المحتملة.
وكجزء من جهودها الأوسع نطاقًا، تتعاون هيئة حماية البيانات مع الجهات التنظيمية في المنطقة الاقتصادية الأوروبية لمراقبة كيفية معالجة شركات التكنولوجيا للبيانات الشخصية في تطوير نماذج الذكاء الاصطناعي.
ولا يقتصر هذا الدفع على شركة جوجل فقط.
تم حظر ChatGPT من OpenAI، أحد أكثر روبوتات الدردشة بالذكاء الاصطناعي شهرة، مؤقتًا في إيطاليا العام الماضي بسبب انتهاكات خصوصية البيانات.
وطالبت هيئة مراقبة البيانات الإيطالية شركة OpenAI بمعالجة مخاوف محددة قبل السماح لها باستئناف العمليات داخل البلاد.
تسلط هذه الحوادث الضوء على التحديات التنظيمية التي تواجه الشركات التي تعمل على تطوير نماذج الذكاء الاصطناعي في أوروبا، حيث يظل الامتثال لقواعد حماية البيانات العامة (GDPR) على رأس الأولويات.
مع تزايد تقدم أنظمة الذكاء الاصطناعي، تزداد المخاطر التي تهدد الخصوصية الشخصية، مما يستدعي تدقيقا أكبر من جانب الجهات التنظيمية في الاتحاد الأوروبي.
إن التحقيق في PaLM2 من Google يمكن أن يكون بمثابة سابقة لنماذج الذكاء الاصطناعي الأخرى، مما يشير إلى الصناعة أن الامتثال لقوانين خصوصية البيانات يجب أن يكون جزءًا لا يتجزأ من عملياتها.
هيئة حماية البيانات الأيرلندية: تقود الجهود الرامية إلى تعزيز الخصوصية في مجال الذكاء الاصطناعي
إن الدور الذي تلعبه أيرلندا باعتبارها الجهة الرئيسية المنفذة لقواعد حماية البيانات العامة (GDPR) بالنسبة للعديد من شركات التكنولوجيا العملاقة في العالم يمنحها نفوذاً كبيراً في تشكيل كيفية تنظيم أنظمة الذكاء الاصطناعي في جميع أنحاء الاتحاد الأوروبي.
وأكدت هيئة حماية البيانات في بيانها أن هذا التحقيق يشكل جزءًا من جهودها المستمرة لتنظيم استخدام البيانات الشخصية في تطوير الذكاء الاصطناعي.
ومن خلال اتخاذ خطوات استباقية، تهدف لجنة حماية البيانات إلى ضمان عدم تجاوز الشركات مثل Google وX وMeta لحدودها في سباقها للهيمنة على مشهد الذكاء الاصطناعي.
إن جوهر اهتمامات لجنة حماية البيانات هو الحاجة إلى الشفافية.
يتعين على الشركات التي تعمل على تطوير نماذج الذكاء الاصطناعي تقييم المخاطر المحتملة على خصوصية المستخدمين والتأكد من وجود الضمانات المناسبة قبل معالجة مجموعات البيانات الكبيرة.
وكما أشارت هيئة حماية البيانات، فإن القضية الأساسية هي ما إذا كانت جوجل قد قامت بشكل صحيح بتقييم المخاطر المحتملة لأنشطة معالجة البيانات الخاصة بـ PaLM2.
وفي ظل التحقيق الجاري، ستواصل الجهات التنظيمية للبيانات في الاتحاد الأوروبي تحميل شركات التكنولوجيا المسؤولية عن الطرق التي تجمع بها وتستخدم بها البيانات الشخصية، وضمان عدم التضحية بحقوق الأفراد باسم التقدم التكنولوجي.
هل القيود هي الحل حقا؟
ورغم أن القيود مثل الحظر المؤقت الذي فرضته إيطاليا على ChatGPT والاستفسارات حول نماذج الذكاء الاصطناعي مثل PaLM2 من جوجل تهدف إلى حماية البيانات الشخصية، إلا أنها قد لا تكون الحل النهائي.
في كثير من الأحيان يجد المستخدمون طرقًا للالتفاف على الحظر، مثل اللجوء إلى شبكات VPN، الأمر الذي يثير تساؤلات حول فعالية الحظر الصريح.
هل ينبغي للجهات التنظيمية أن تركز بدلا من ذلك على الشفافية والضمانات الصارمة وتثقيف المستخدمين بدلا من القيود الصريحة؟
ومع استمرار نمو الذكاء الاصطناعي، فإن خنق الابتكار قد يؤدي إلى عواقب غير مقصودة، ولكن السماح باستخدام البيانات دون رادع قد يؤدي إلى تقويض الحقوق الفردية.
ولا بد من إعادة تعريف التوازن بين الابتكار والخصوصية ــ ليس فقط من خلال الحظر ولكن من خلال إطار عمل جديد يتطور مع التكنولوجيا.