マサチューセッツ工科大学(MIT)とペンシルベニア州立大学(Penn State University)の新しい研究により、家庭監視で使用されているような大規模言語モデル(LLM)は、警察の介入に関して一貫性のない偏った判断を下す可能性があることが明らかになった。この研究では、これらのAIシステムが家庭監視ビデオの分析に導入された場合、犯罪行為が発生していなくても、警察への連絡を推奨する可能性があることがわかった。モデル間で一貫性のない判断がなされること、またその判断が地域によって異なるという明らかな偏りがあることから、AIの重要な用途への使用について懸念が持たれている。
研究の結果矛盾した規範と偏った決断
研究者たちは、3つの著名なLLM-GPT-4、Gemini、Claudeに実際の監視カメラの映像を分析させ、犯罪が起きているかどうか、警察を呼ぶべきかどうかを判断させた。その結果、似たような行動を分析した場合でも、モデルがしばしば食い違うことが明らかになった。例えば、車両侵入があった場合、あるモデルは警察への通報を勧めるかもしれないが、別のモデルは同じような事件を無害だと判断するかもしれない。このような矛盾は、AIモデルが予測不可能な方法で社会基準を適用する、研究者たちが「規範の矛盾」と呼ぶ現象を示唆している。
この矛盾に加え、この研究ではAIの意思決定プロセスに大きな偏りがあることが浮き彫りになった。他の要因でコントロールした場合でも、白人が多い地域では警察の介入を推奨する傾向が強かった。この人口統計学的バイアスは、AIシステムが近隣のデータに直接アクセスしていないにもかかわらず現れたものであり、訓練データセット内の暗黙のバイアスについての懸念が提起された。
マサチューセッツ工科大学(MIT)の大学院生である主執筆者のショミク・ジェインは、「LLMは何らかの規範や価値観を学んでいる、あるいは学ぶことができるという暗黙の信念があります。私たちの研究は、そうではないことを示しています。彼らが学んでいるのは、恣意的なパターンやノイズだけなのかもしれません」。
規範の不一致:ハイステークスの場におけるリスク
研究者たちは、こうした矛盾は家庭の監視にとどまらず、LLMが医療、住宅ローン融資、雇用など、利害関係の大きい他の分野に導入された場合、深刻な結果をもたらす可能性があると警告している。そのような分野では、AIによる判断が不当な扱いや不当な拒否、あるいは人命の危険につながる可能性がある。
この研究の共同執筆者であるアシア・ウィルソン教授は、このような繊細な分野にAIを導入する際には注意が必要だと強調した。「生成的なAIモデルをあらゆる場所に、特に重要な場面で配備するやり方は、かなり有害である可能性があるため、もっと考える価値がある」と彼女は述べた。
研究者たちは、モデルの内部構造を取り巻く透明性の欠如が、規範の矛盾の根本原因を突き止めることを困難にしていると主張している。これらのモデルは独自に開発されたものであるため、学習データへのアクセスが制限され、固有のバイアスに対処することが難しくなっている。
AIシステムにどのようにバイアスが生じるか
この研究は、現在ペンシルベニア州立大学の助教授である共同研究者ダーナ・カラッチによる以前の研究を基礎としている。カラッチは以前、Amazon Ring Neighborsのプラットフォームが、一部の住民によって、人々の外見に基づいて近隣を「人種的にゲートキープ」するためにどのように利用されているかを研究していた。この研究では、生成AIモデルの台頭とともにLLMに焦点を当て、そのような技術が監視カメラの映像に基づく取り締まりの判断にどのように利用できるかを検証した。
モデルは近隣の人口統計を識別するために明示的に訓練されたわけではないにもかかわらず、ビデオデータの微妙な手がかりが、誰が不審者とみなされるかについて偏った仮定を適用させた可能性がある。例えば、研究者たちは、LLMが白人の多い地域の個人を "配達員 "と表現する可能性が高いことを発見した。一方、有色人種が多い地域では、同じような行動が "下見のため "や "強盗道具 "を使用していると判断される可能性が高い。
驚くべきことに、AIが警察を呼ぶかどうかの判断において、肌の色は主要因ではなかった。研究者たちは、これは肌色のバイアスを軽減する技術が進歩したためだと考えている。しかし、ジェインが指摘したように、「無数のバイアスをコントロールするのは難しい。モグラたたきゲームのようなものです。ひとつを軽減しても、また別のバイアスがどこかに現れるのです」。
AI監視強化の必要性
この研究は、洗練されたAIシステムであっても、特に重要な実世界のシナリオに導入された場合、無謬には程遠いことを痛感させるものである。この研究によって明らかになった偏見は、不当な取り締まりの決定が個人や地域社会に深刻な結果をもたらしかねない家庭監視のような分野でAIを使用する際には、より厳しい精査と規制による監視が必要であることを強調している。
研究者たちは、人々がAIの偏見や潜在的な害を報告できるシステムを開発し、企業と政府機関の両方がこれらの問題を監視し、対処できるようにすることで、研究を進めることを目指している。さらに、機械学習と人間の推論のギャップをよりよく理解するために、AIモデルが下す規範的判断を人間の意思決定と比較することも計画している。
AIが重要な産業に組み込まれ続ける中、この研究は慎重に進めることの重要性を示唆している。AIの持つ規範の矛盾の可能性は、微妙でありながら影響力のあるバイアスと相まって、開発者、政策立案者、そして社会が立ち向かわなければならない現実的かつ差し迫ったリスクを提示している。