随着技术不断进步并渗透到社会的各个方面,人工智能 (AI) 和法规变得越来越重要。人工智能法规的目的是建立指导方针、框架和标准,以确保负责任地开发、部署和使用人工智能系统。
值得注意的是,人工智能法规在不同国家和地区之间可能存在很大差异,反映出不同的法律框架、文化价值观和政策重点。跟上人工智能法规不断变化的格局需要监测国家和国际层面的发展。
这就是 2023 年 6 月 7 日至 9 日在新加坡博览中心举行的亚洲科技 x 新加坡 (ATxSG) 讨论的主题。该活动是一个无与伦比的平台,来自不同领域的远见者、专家和爱好者齐聚一堂,探索最新的技术趋势,应对紧迫的挑战,并释放无数的机会。
打破壁垒:关于人工智能风险政策和监管的全球对话
在全球格局中,一波新的人工智能模型已经浮出水面,促使国家、地区和国际实体努力解决人工智能监管的关键问题。显然,现行机制不足以解决手头的复杂问题。在此背景下,研究各国如何看待人工智能监管变得至关重要。
值得注意的是,新加坡通过 IMDA 和 PDPC 开发的人工智能治理测试框架和工具包 A.I.Verify 朝着这个方向迈出了开创性的一步。与此同时,在美国 (US),美国国家标准技术研究院 (NIST) 公布了备受期待的人工智能风险管理框架。此外,欧盟 (EU) 正在努力完成其首个人工智能法律框架,旨在采用基于风险的方法并规范对某些人工智能系统的禁令。
随着这些发展的展开,通过现有法律和近期颁布的法规来审视人工智能监管的格局变得至关重要。
在 Asia Tech 2023 的最后两天举行的两次小组讨论中都详细讨论了这一点。在第一个小组讨论中,题为“全球比较视角对人工智能监管”的讨论,相关行业领导者出席并发表了他们的观点,包括 Jason Tamara MSD人工智能总监Widjaja;托尼·布莱尔全球变化研究所高级政策顾问 PeiChin Tay; Jason Grant Allen,SMU 人工智能与技术中心主任数据治理; Omdia 应用智能首席分析师 Lian Jye Su。会议由亚太地区负责人 Andrew Staples 主持。经济学家影响力的见解。
第二场小组讨论,题为“AI Risk Policy & Regulation ─ What to Look Out in 2023”,联合国区域间犯罪与司法研究所人工智能机器人中心负责人 Irakli Beridze 等著名专家发表讲话; Jason Grant Allen,SMU 人工智能与技术中心主任数据治理;新加坡国立大学 (NUS) 副教务长兼高级总监(AI 治理)Simon Chesterman。会议由 McAfee 的 Martech 总监 Neha Dadbhawala 主持。
当前的 AI 监管格局已引起广泛关注
在不到十年的时间里,人工智能已经从小众兴趣转变为我们日常生活中不可或缺的一部分。因此,政策制定者对这一领域表现出越来越大的兴趣和关注。不出所料,人工智能监管领域的主要参与者包括中国、加拿大、欧盟、英国 (UK) 和美国。 “虽然其中许多领域仍在发展,但我们可以观察到沿着风险最小化和利益最大化频谱的新兴集群,” PeiChin Tay解释道。
她继续说,一方面,美国和英国在强调经济增长和商业创新的推动下采取了类似的方法。另一方面,加拿大和欧盟优先考虑保障基本人权和尽量减少伤害,同时培育创新。位于中间的中国在信息控制、监控能力和社会安全保障方面引入了额外的关注层,旨在支持其在该框架内的业务。
进一步阐述,美国和英国采用了情境治理方法,英国的白皮书概述了支持创新的立场和跨部门、特定情境和基于原则的框架。在此基础上,监管机构将制定适合各自领域的具体法规。相比之下,欧盟奉行一种基于风险的横向方法,例如具有影响力的通用数据保护条例 (GDPR) 法案,在不阻碍业务增长的情况下优先考虑权利保护和减轻危害。风险分为不可接受、高、中等或几乎没有风险。
加拿大采用类似的基于风险的方法。值得注意的是,印度目前不属于这一范畴,它选择了一种轻触式的生成人工智能方法,并没有制定具体的立法。然而,重要的是要承认这些动态仍在发展和出现。
了解不同的参与者、他们的动机和监管方法的范围至关重要
Jason Grant Allen 补充说,当我们在传统意义上探索政府监管时,在更广泛的治理定义中,不仅要考虑政府行为者,还要考虑政府间行为者、企业和行业本身。
政府监管的一个显着方面是行业自律和采用自愿标准和道德准则。托尼布莱尔研究所、学术界和大学等民间社会团体也在塑造监管理念方面发挥着重要作用。这些参与者的动机和驱动因素与政府不同。国家安全、地缘政治和经济通常是这一领域的重要背景。在人工智能技术的开发和部署方面,我们观察到商业环境和大型科技公司之间的军备竞赛。此外,核军备竞赛,特别是在拥有关键供应链的印太地区,进一步增加了驱动因素和动机。
必须承认,许多倡导监管的行为者真正是出于对道德、负责任和值得信赖的人工智能系统的渴望,这些系统为人类的更大利益服务。企业需要获得并维持政府和消费者的信任。人们强烈希望通过监管来利用有益的创新,尤其是在具有潜在危害风险的技术中。监管良好的技术部门有助于全面改善人类的想法很普遍。
当我们缩小并采用学术视角时,我们可以探索不同监管方法的类型。这个范围从中间的软性自我监管和准监管到国际标准执行和更严格的监管,例如欧盟和中国。重要的是要认识到技术本身并不是监管的唯一重点;有一个社会技术方面需要考虑。
不同的监管模式或类型可能适用于监管特定要素,例如对数据集进行稳健监管,同时针对其他方面采用替代方法。
我们仍处于为人工智能制定综合治理和监管框架的早期阶段
至于在治理和监管框架方面,我们离实现一个切实可行的全球框架还有多远,苏连杰指出,这是一个关键问题,需要我们从不同阶段进行考察。目前,制定了强有力的数据法规,国家行为者强调数据本地化和匿名化对保护隐私和确保司法控制的重要性。然而,仍有改进的余地,特别是在澄清数据所有权和为数据使用制定明确的指南方面。
在知识产权 (IP) 方面,围绕需要强大的保障措施和防火墙来保护宝贵资产的讨论正在进行中。尽管取得了进展,但在界定明确界限和解决潜在争端方面仍有工作要做。在鼓励创新和保护知识产权之间取得平衡至关重要。
当谈到人工智能的伦理考虑时,各国政府正在努力解决各种问题。重点通常在评估风险和最大化收益之间摇摆不定。重要的是要考虑这些方法对政策决定的影响以及它们可能对未来任命和监管产生的影响。
有审计人工智能系统的支持者,主张进行独立评估以确保合规性和降低风险。然而,重要的是要承认人工智能技术的复杂性,这需要专业知识和专业知识。跟上人工智能发展的快速步伐,很难拥有一支具备全面理解并能够提供可靠建议的审计师团队。
此外,随着人工智能的发展,挑战扩展到单个系统之外,包括在国家和国际范围内整合不同的数据源。考虑到潜在的数据链接和跨职能影响,确保合规性和维护 AI 应用程序的整体视图变得越来越复杂。
组织需要积极创新和实施这些举措
“与其仅仅讨论治理和合规性,我认为考虑创新和实施的重要性至关重要。这不仅仅是关于制定政策和责任声明;组织需要积极创新和实施这些举措,” Jason Tamara Widjaja 解释道。
从他的角度来看,出现了两个关键的考虑因素。首先,在企业层面,存在监管红利未充分发挥的风险。取得平衡是必不可少的;组织必须听取倡导治理和合规的声音,但不能以牺牲创新为代价。找到优化这两个方面的中间地带至关重要。
其次,围绕创新与监管的二分法经常出现一种说法。然而,这个范围并不总是适用,尤其是在受到高度监管的行业中。考虑以合规驱动角色工作的人的观点。如果没有明确的指导,他们的本能可能是什么都不做。在这种情况下,监管可以充当推动者和加速器,而不仅仅是充当看门人。它挑战了监管总是阻碍进步的观念。
最后,我们必须承认对法规的不同解释。在政策层面发生的对话可能并不总是与非英语母语者或那些使用应用程序编程接口 (API) 技术的人的经历一致。因此,重要的是提供详细的用例和实际示例,以确保全面理解其含义。该行业急切地等待有关签订合同和遵守相关指令的明确和方向。
探索需要考虑的伦理问题
根据 Jason Grant Allen 关于传统监管方法的说法,我们通常以原则、价值观和基于结果的监管为目标。我们力求建立一个更灵活的框架,而不是依赖需要通过政治审议和建立共识来频繁更新的高度规范的立法。根据所涉及的法律体系,这可能涉及高级法规以及可由相关当局定期修订的法规。
然而,当涉及到人工智能等快速发展的新兴技术时,人们一直在争论这些成熟方法的充分性。重要的是不要忽视环境法的作用,其中包括隐私和数据保护法规等现有法律。监管设计必须考虑新技术和颠覆性技术带来的独特挑战,特别是在关键时刻,例如当前采用生成式 AI 工具。
在应对这些挑战时,我们有多种监管干预途径。我们可以探索专门针对 AI 量身定制的监管方法,或者我们可以通过调整某些参数来利用现有法律法规来解决与 AI 相关的问题。此外,我们应该承认不同类型法规的重要性,例如自上而下的国家法规、知名机构制定的国际标准以及自愿行业倡议。虽然后者可能不是最终解决方案,但它们可以在过渡期间发挥重要作用,避免随着时间的推移陷入停滞的陷阱。
此外,重要的是要认识到人工智能不是一个单一的实体,而是各种组件的复杂融合。它包含数据、模型、软件、硬件依赖项,甚至社会方面。人为因素在组织环境中作为用户和决策者起着至关重要的作用。因此,监管考虑必须超越技术本身,并涵盖更广泛的组织结构和所涉及的决策过程。组织既可以从监管中受益,也可以遵守监管,确保以负责任和合乎道德的方式使用 AI 工具。
过度监管会限制创新并使民众受到伤害
当监管变得过度并扼杀创新,迫使其转移到别处时,真正令人担忧的是。 “在之前的小组讨论中强调了这一点,建议新加坡应采用一种平衡的监管制度,在不阻碍创新的情况下防止人工智能滥用的危害,”西蒙切斯特曼提到。过度监管会限制创新并使民众受到伤害,因此问题来了:我们应该怎么做?
“有时,这个问题被误解为只是决定采用哪些法规。然而,在我的书中,我强调对于人工智能的大多数用例,起点应该是应用已经解决类似问题(例如剽窃)的现有法律和治理。无论是通过剽窃他人的作品或将机器生成的内容冒充为自己的作品来作弊,都应尽可能适用正常规则。然而,在某些情况下,需要进行调整和制定具体规定,”他继续。
在 AI 监管领域,监管分为三个级别:政府监管、国际监管和组织内部监管。政府层面拥有最大的权力,因为它有权执行带有刑事处罚的法规,例如因疏忽造成伤害而被监禁。然而,仅靠政府监管是必要的,但还不够。需要一定程度的国际协调与合作,以避免监管套利和防止逐底竞争。
然而,最关键的方面在于组织本身。内部治理和合规结构发挥着至关重要的作用。大多数人都遵守法律,因为他们了解法律和声誉方面的潜在后果。危险在于组织如何驾驭从风险评估到负责任实践的过渡。将思维方式从仅仅避免监管问题转变为积极防止对消费者造成伤害至关重要。大型科技公司近期对责任团队的缩减和加速上市带来了重大风险。例如,Twitter 等社交媒体平台在理解文化规范和促进有意义的互动方面遇到了挑战。
在讨论 AI 时,了解它的独特之处至关重要
Irakli Beridze 表示,在讨论 AI 时,了解它的独特之处至关重要,“一方面,我们拥有比以往任何时候都多的大量可用数据,以及分析和解释这些数据的计算能力。另一方面,我们必须开发复杂的算法和框架,以有效地处理这些数据并从中获得洞察力。”
但是,我认为必须解决数据市场中固有的问题。重要的是要承认这些问题以避免不可接受的做法。作为这个小组的参与者,我们都对包容性和观点的多样性有着共同的承诺。我们的讨论不应排他性或仅限于特定议程。如果你要问我关于联合国的作用,我会强调包容性和多元化的观点是最重要的。
我们需要通力合作,共同建立塑造人工智能未来的框架和政策。这个利益相关者联盟需要确保做出基于证据的决定。尽管我们存在分歧,但我们必须通过广泛参与找到共同点。人工智能的全球格局正在迅速发展,各国和各个部门都进行了大量投资。然而,重要的是要考虑到世界上很大一部分人口属于可能没有强大的政府结构或资源的国家。我们不能抛下这些人,也不能让他们忍受恶劣的生活条件。因此,重新定义人工智能框架需要我们解决这些差异并优先考虑全球所有人的福祉。
人工智能的影响,尤其是对教育的影响
杰森·格兰特·艾伦 (Jason Grant Allen) 发现探索不同的教育观点很有趣,尤其是考虑到人工智能近年来的影响。 “人工智能使教育更接近那些可能无法获得资源或传统学校教育的个人。这引发了对当前支持初等教育的法规以及它们如何随着人工智能和教育技术的出现而发展的质疑,”他想。
虽然不仅仅是人工智能,但互联网和移动连接也发挥了重要作用。一些组织利用这些技术为可能永远没有机会旅行或在实体教室学习的个人提供教育机会。在信息的可访问性的推动下,教育变革的潜力是巨大的。
在更广泛的层面上,这种转变不仅影响大众教育,而且改变工作的性质。作为这种转变的一个方面,人工智能正在改变我们与信息的关系。与从口头传统到书面、从书面到印刷机的转变类似,我们与信息的联系再次发生演变。想象一下拥有一位了解您的个人需求、量身定制教育体验并相应地指导您的个性化导师的可能性。这个机会超越了数学等学科,并在各个领域都有潜力。
然而,我们必须警惕过度依赖人工智能和技术。保持一定的认知技能和能力很重要。例如,依靠 AI 记住电话号码或使用地图导航可能会使我们更加依赖并有可能削弱我们的整体技能。如果我们在没有 AI 帮助的情况下难以构建论点或撰写论文,那么它就不仅仅是将 AI 用作工具,而是开始成为一个拐杖。
赋予权力而非限制的设计法规
我们在教育中面临的关键问题之一是确定从哪里开始以及优先考虑哪些方面:我们如何确保我们为个人提供必要的技能以在不断发展的就业市场中保持竞争力并将技术无缝融入我们的生活?
答案在于集体努力,以提高我们的知识并投入大量精力为下一代做好准备。通过赋予他们相关技能,我们使他们能够在竞争激烈的全球环境中茁壮成长并适应未来的需求。这是一个遍及全球大多数国家的挑战。
Irakli Beridze 阐述说,一种方法是利用技术并投资于促进对其应用程序的全面理解的教育计划。例如,我们经常讨论 ChatGPT 等工具的可访问性,它可以成为宝贵的学习资源。然而,同样重要的是超越简单地使用这些技术,而是专注于教导下一代如何有效地利用它们。这包括指导他们写提示,因为这是教育的一个重要方面。
通过为年轻一代提供明智地利用技术所需的知识和技能,我们可以让他们塑造更美好的未来。这需要教育工作者、政策制定者和整个社会的共同努力,以确保我们的教育系统不断发展并适应不断变化的环境。
在 AI 监管中找到正确的平衡至关重要
了解各种参与者、他们的动机和监管方法的范围对于驾驭人工智能监管的复杂格局至关重要。通过探索这些因素,我们可以努力建立一个监管框架,以促进符合道德、负责任和有益的 AI 创新,同时解决国家安全、地缘政治和社会影响等更广泛的考虑因素。
目前,我们仍处于为人工智能制定综合治理和监管框架的早期阶段。培养专业知识、建立坚实的基础并继续促进利益相关者之间的对话与合作至关重要。
人工智能相关法律法规的设计需要深思熟虑,以保持适应性和灵活性。平衡原则和基于结果的方法与及时更新的需要和道德考虑是至关重要的。在 AI 监管中找到适当的平衡至关重要。我们应该从现有的法律和治理入手,同时认识到在某些情况下需要制定具体的法规。
通过考虑不同的监管方法、利用现有法律并考虑更广泛的社会和组织方面,我们可以建立一个监管框架,有效应对人工智能带来的挑战,同时促进创新和负责任的人工智能部署。