الصورة: MLYearning
كشفت جامعة نورث وسترن مؤخرًا عن ثغرة أمنية خطيرة في المحولات التوليدية المدربة مسبقًا (GPTs).
على الرغم من تنوعها وقدرتها على التكيف، فإن روبوتات الدردشة المتقدمة هذه التي تعمل بالذكاء الاصطناعي معرضة لهجمات الحقن السريعة، مما يؤدي إلى المخاطرة بكشف المعلومات الحساسة.
تتضمن GPTs المخصصة، التي تم تطويرها باستخدام ChatGPT من OpenAI ونموذج اللغة الكبير GPT-4 Turbo، عناصر فريدة مثل المطالبات المحددة ومجموعات البيانات وتعليمات المعالجة للمهام المتخصصة.
الصورة: فك التشفير
ومع ذلك، يمكن الوصول بسهولة إلى هذه التخصيصات وأي بيانات سرية مستخدمة في إنشائها من قبل أطراف غير مصرح لها.
أظهرت تجربة أجرتها شركة Decrypt سهولة استخراج البيانات السريعة والسرية الكاملة لـ GPT من خلال القرصنة السريعة الأساسية.
ومن خلال اختبار أكثر من 200 نقطة GPT مخصصة، وجد الباحثون احتمالًا كبيرًا لحدوث مثل هذه الانتهاكات، بما في ذلك احتمال استخراج المطالبات الأولية والوصول إلى الملفات الخاصة.
تسلط الدراسة الضوء على خطرين رئيسيين: الملكية الفكرية المخترقة وخصوصية المستخدم المنتهكة.
يمكن للمهاجمين استغلال GPTs إما لاستخراج التكوين الأساسي والمطالبة ("استخراج موجه النظام") أو تسريب مجموعات بيانات التدريب السرية ("تسريب الملفات").
أثبتت الدفاعات الحالية مثل المطالبات الدفاعية عدم فعاليتها ضد المطالبات الخصومة الأكثر تطوراً.
المزيد من الضعف؟
ويدعو الباحثون إلى اتباع نهج أكثر شمولاً لحماية نماذج الذكاء الاصطناعي هذه، مع التركيز على أن المهاجمين المصممين يمكنهم على الأرجح استغلال نقاط الضعف الحالية.
وتدعو الدراسة مجتمع الذكاء الاصطناعي إلى تطوير تدابير أمنية أقوى، مما يشير إلى أن المطالبات الدفاعية البسيطة غير كافية ضد تقنيات الاستغلال المتقدمة هذه.
مع التخصيص المتزايد لـ GPTs الذي يوفر إمكانات هائلة، يعد هذا البحث بمثابة تذكير مهم بالمخاطر الأمنية التي تنطوي عليها.
ويُنصح المستخدمون بتوخي الحذر، خاصة فيما يتعلق بالبيانات الحساسة، مع التأكيد على الحاجة إلى تعزيز أمان الذكاء الاصطناعي دون المساس بخصوصية المستخدم وسلامته.
الدراسة الكاملة لجامعة نورث وسترن متاحة للقراءةهنا .