オーストリアのデータ権利保護擁護団体が、著名な人工知能(AI)開発企業であるOpenAIに対し、新たなプライバシーに関する苦情を申し立てた。
4月29日、Noybは、OpenAIが生成AIチャットボット「ChatGPT」によってもたらされた虚偽の情報を訂正していないとして苦情を申し立てた。同団体は、このような行為は欧州連合(EU)のプライバシー規則に違反する可能性がある、いやむしろ不作為の可能性があると述べた。
同団体の訴状によると、名前は明かされていないが、公人がOpenAIのチャットボットに彼について質問し、一貫して間違った情報を得たという。
OpenAIは、データの訂正や削除を求める一般人からの要請に対し、それは不可能であると拒否したと報じられている。また、トレーニングデータとその入手先についても明言を避けた。
Noybのデータ保護弁護士であるMaartje de Graaf氏は、声明でこの件について次のようにコメントした:
だから、もしシステムが正確で透明性のある結果を提供できなければ、個人に関するデータを作成するために使用することはできない。技術は法的要件に従うものであり、その逆ではない。
Noybはオーストリアのデータ保護局に苦情を申し立て、OpenAIのデータ処理について調査するよう求めた。特にNoyb氏は、同組織が大規模な言語モデルを用いて個人データの正確性をどのように確保しているかを検証するよう求めた。
現在のところ、企業はChatGPTで個人に関するデータを処理する際にEU法に準拠させることができない。
欧州デジタル著作権センター(Noyb)は、オーストリアのウィーンを拠点とし、欧州一般データ保護規則(General Data Protection Regulation)法を擁護するため、戦略的な裁判やメディア活動を展開している。
活動家や研究者がヨーロッパ全土でチャットボットを非難したのはこれが初めてではない。
2023年12月、欧州の2つの非政府組織による調査で、マイクロソフトのAIチャットボット「ビング」(現在は「コパイロット」に名称変更)が、ドイツとスイスの政治選挙に関する地方選挙に関して、誤解を招くような誤った情報を提供していたことが明らかになった。
このチャットボットは、候補者情報、世論調査、スキャンダル、投票について間違った回答をし、情報源を誤って引用した。
EU圏ではないが、グーグルのAIチャットボット「ジェミニ」が、画像ジェネレーターで不正確な画像を提供した例もある。グーグルはこの件について謝罪し、モデルを変更することを約束した。