Gambar: MLYearning
Northwestern University baru-baru ini mengungkap kerentanan kritis pada Generative Pre-trained Transformers (GPT) khusus.
Terlepas dari keserbagunaan dan kemampuan beradaptasi mereka, chatbot AI yang canggih ini rentan terhadap serangan injeksi yang cepat, sehingga berisiko mengekspos informasi sensitif.
GPT khusus, yang dikembangkan menggunakan ChatGPT dari OpenAI dan GPT-4 Turbo Large Language Model, menggabungkan elemen-elemen unik seperti permintaan khusus, kumpulan data, dan instruksi pemrosesan untuk tugas-tugas khusus.
Gambar: Dekripsi
Namun, kustomisasi ini dan data rahasia apa pun yang digunakan dalam pembuatannya dapat dengan mudah diakses oleh pihak yang tidak berwenang.
Sebuah percobaan oleh Decrypt menunjukkan kemudahan mengekstraksi prompt lengkap dan data rahasia GPT kustom melalui peretasan prompt dasar.
Menguji lebih dari 200 GPT khusus, para peneliti menemukan kemungkinan besar terjadinya pelanggaran tersebut, termasuk potensi ekstraksi petunjuk awal dan akses ke file pribadi.
Studi ini menyoroti dua risiko utama: kekayaan intelektual yang dikompromikan dan privasi pengguna yang dilanggar.
Penyerang dapat mengeksploitasi GPT untuk mengekstrak konfigurasi inti dan prompt (ekstraksi prompt sistem) atau membocorkan kumpulan data pelatihan rahasia (kebocoran file).
Pertahanan yang ada seperti perintah defensif terbukti tidak efektif melawan perintah musuh yang lebih canggih.
Lebih Rentan?
Para peneliti berpendapat untuk pendekatan yang lebih komprehensif untuk melindungi model AI ini, dengan menekankan bahwa penyerang yang bertekad kuat kemungkinan besar dapat mengeksploitasi kerentanan yang ada saat ini.
Studi ini meminta komunitas AI untuk mengembangkan langkah-langkah keamanan yang lebih kuat, menunjukkan bahwa permintaan defensif sederhana tidak cukup untuk melawan teknik eksploitasi canggih seperti itu.
Dengan meningkatnya kustomisasi GPT yang menawarkan potensi yang sangat besar, penelitian ini berfungsi sebagai pengingat penting akan risiko keamanan yang ada.
Pengguna disarankan untuk berhati-hati, terutama dengan data sensitif, menggarisbawahi perlunya peningkatan keamanan AI tanpa mengorbankan privasi dan keamanan pengguna.
Studi lengkap dari Northwestern University tersedia untuk dibacadi sini .