著者:Tayyub Yaqoob, CoinTelegraph; Compiled by Tong Deng, Golden Finance
I. AIガバナンスの未来と重要性
人工知能(AI)ガバナンスは、AI技術が責任を持って開発・利用されることを保証するためのルール、原則、基準を包括するものです。
人工知能ガバナンスは、人工知能(AI)技術の倫理的な創造と活用を導くために設計された定義、原則、ガイドライン、方針を網羅する包括的な用語です。 このガバナンスの枠組みは、倫理的な意思決定、データプライバシー、アルゴリズムによる偏見、AIが社会に与える広範な影響など、AIに関連するさまざまな問題や課題に対処するために不可欠です。
AIガバナンスの概念は、純粋に技術的な側面を超えて、法的、社会的、倫理的な側面を包含しています。 これは、組織や政府が、AIシステムが意図しない害をもたらさない有益な方法で開発され、展開されることを保証するためのインフラです。
要するに、AIガバナンスは責任あるAIの開発と利用のバックボーンを形成し、AI開発者、政策立案者、エンドユーザーなど、さまざまな利害関係者を導く一連の基準と規範を提供します。 ガイドラインと倫理原則を明確に確立することで、AIガバナンスはAI技術の急速な進歩と人間社会の社会的・倫理的価値との調和を目指します。
II.AIガバナンスのレベル
人工知能ガバナンスは、NISTやOECDなどのフレームワークを指針として、固定されたレベルではなく、組織のニーズに適応します。
人工知能ガバナンスは、サイバーセキュリティなどの分野で見られるような、普遍的に標準化されたレベルには従いません。 その代わりに、さまざまな団体の構造化されたアプローチやフレームワークを利用し、組織が特定の要件に合わせてカスタマイズできるようにしています。
米国標準技術局(NIST)の人工知能リスク管理フレームワーク、経済協力開発機構(OECD)の人工知能原則、欧州委員会の信頼できる人工知能のための倫理綱領などのフレームワークは、最も重要なものの1つです。 これらは、透明性、説明責任、公平性、プライバシー、安全性、セキュリティなど、多くのトピックをカバーしており、ガバナンスの実践に確固たる基盤を提供しています。
ガバナンスの採用の程度は、組織の規模、採用するAIシステムの複雑さ、その組織が活動する規制環境によって異なります。
インフォーマル・ガバナンス
最も基本的な形態は、組織の中核となる価値観と原則に依存し、倫理審査委員会などの非公式なプロセスがありますが、正式なガバナンス構造はありません。
暫定的なガバナンス
非公式なガバナンスよりも構造化されたアプローチでは、特定の課題に対処するための具体的な方針や手順を策定する。 ただし、包括的・体系的なものではないかもしれない。
正式なガバナンス
最も包括的なアプローチでは、組織の価値観を反映し、法的要件を遵守し、詳細なリスク評価と倫理的監視プロセスを含む、広範なAIガバナンスの枠組みを開発する必要があります。
AIガバナンスの3つの例
人工知能ガバナンスは、GDPR、OECD人工知能原則、企業倫理委員会などさまざまな例を通して説明されており、責任あるAI利用への多面的なアプローチを示しています。
人工知能ガバナンスは、組織や政府を通じて倫理的な方法でAI技術を展開することを目的とした、さまざまな政策、枠組み、慣行を通じて具体化されています。
一般データ保護規則(GDPR)は、個人データとプライバシーの保護におけるAIガバナンスの重要な例です。 GDPRはAIだけに焦点を当てているわけではありませんが、その規制はAIアプリケーション、特にEU内で個人データを処理するアプリケーションに大きな影響を与え、透明性とデータ保護の必要性を強調しています。
40カ国以上が支持するOECD AI原則は、信頼できるAIへのコミットメントを強調している。 同原則は、AIシステムの透明性、公平性、説明責任を提唱し、責任あるAIの開発と利用を目指す国際的な取り組みを導いています。
企業AI倫理委員会は、AIガバナンスに対する組織的アプローチを代表するものです。 多くの企業が倫理委員会を設立し、AIプロジェクトを監督し、倫理規範や社会的期待に準拠していることを確認しています。 例えば、IBMのAI倫理委員会は、AI製品が同社のAI倫理規定に準拠していることを確認するためにAI製品をレビューし、さまざまな分野から多様なチームを招いて包括的な監督を行っています。
IV.AIガバナンスへのステークホルダーの参加
ステークホルダーの参加は、幅広い視点を反映した、包括的で効果的なAIガバナンスの枠組みを開発する上で非常に重要です。
政府機関、国際機関、企業団体、市民社会組織など、幅広いステークホルダーがAIガバナンスを担っています。 また、法的、文化的、政治的な背景が異なるため、監督構造は地域や国によって大きく異なる可能性があります。
AIガバナンスの複雑さには、政府、産業界、学界、市民社会など、社会のあらゆる部門の積極的な参加が必要です。 多様なステークホルダーを巻き込むことで、AIガバナンスの枠組み策定において複数の視点が考慮されるようになり、より強固で包括的な政策につながります。
このコミットメントはまた、AI技術の倫理的な開発と使用に対する責任を共有する意識を育みます。 ガバナンスのプロセスに利害関係者を参加させることで、政策立案者は幅広い専門知識と洞察力を活用し、AIガバナンスの枠組みが十分な情報を備え、適応可能で、AIがもたらす多面的な課題と機会に対処できるようにすることができます。
例えば、データの収集と処理が飛躍的に増加することで、プライバシーに関する重大な懸念が生じ、個人の個人情報を保護するための厳格なガバナンスの枠組みが必要になります。 これには、GDPRのような世界的なデータ保護規制の遵守や、不正アクセスやデータ漏洩を防ぐための高度なデータセキュリティ技術の導入への積極的な関係者の関与が含まれます。
V. AIガバナンスの未来をリードする
AIガバナンスの未来は、技術の進歩、社会の価値観の進化、国際協力の必要性によって形作られるでしょう。
AI技術が進化するにつれて、枠組みがそれらを管理するようになるでしょう。 AIガバナンスの将来は、持続可能で人々を中心としたAIの実践がより重視されることになりそうです。
持続可能なAIは、環境に優しく経済的に実行可能な技術を長期的に開発することに重点を置いています。 人間中心のAIは、人間の能力と幸福を高めるシステムを優先し、AIが人間の代替ではなく、人間の可能性を高めるツールになるようにします。
さらに、AI技術のグローバルな性質から、AIガバナンスに関する国際協力が必要です。 これには、国境を越えた規制枠組みの調和、AI倫理のグローバル基準の育成、異なる文化的・規制的環境でもAI技術を安全に展開できるようにすることなどが含まれます。 グローバルな協力は、国境を越えたデータの流れなどの課題に対処し、AIの利益が世界中で公平に共有されるようにするための鍵となります。