文章来源
振作起来:超级智能 AI 即将到来。
A博文 由 OpenAI 首席执行官 Sam Altman、OpenAI 总裁 Greg Brockman 和 OpenAI 首席科学家 Ilya Sutskever 合着,警告说,人工智能的发展需要严格监管,以防止出现潜在的灾难性情况。
“现在是开始思考超级智能治理的好时机,” Altman 说,他承认未来的 AI 系统在能力方面可能会大大超过 AGI。 “鉴于我们现在看到的情况,可以想象在未来十年内,人工智能系统将在大多数领域超越专家技能水平,并开展与当今最大的公司之一一样多的生产活动。”
回应奥特曼在他的最近的证词 在国会之前,三人概述了他们认为对未来战略规划至关重要的三大支柱。
“起点”
首先,OpenAI 认为必须在控制和创新之间取得平衡,并推动达成一项社会协议,“让我们既能维护安全,又能帮助这些系统与社会顺利融合。”
接下来,他们支持“国际权威”的想法。负责系统检查、审计执行、安全标准合规性测试以及部署和安全限制。将其与国际原子能机构相提并论,他们提出了全球 AI 监管机构的样子。
最后,他们强调了对“技术能力”的需求。保持对超级智能的控制并使其“安全”。这意味着什么仍然是模糊的,即使是对 OpenAI 来说也是如此,但该帖子警告不要采取繁重的监管措施,例如对低于超级智能标准的技术进行许可和审计。
从本质上讲,这个想法是让超级智能与其训练者的意图保持一致,防止出现“foom scenario”——人工智能能力快速、无法控制的爆炸,超过人类的控制。
OpenAI 还警告说,不受控制的 AI 模型开发可能对未来社会产生潜在的灾难性影响。该领域的其他专家已经提出了类似的担忧,来自人工智能教父 致人工智能公司的创始人像稳定 AI 乃至以前的 OpenAI 工作人员 过去参与过 GPT LLM 的培训。这种对 AI 治理和监管采取积极主动方法的紧急呼吁引起了世界各地监管机构的关注。
“安全”超级智能的挑战
OpenAI 认为,一旦解决了这些问题,就可以更自由地发挥 AI 的潜力:“这项技术可以改善我们的社会,每个人使用这些新工具的创造力肯定会让我们感到惊讶,”他们说。
作者还解释说,该领域目前正在加速增长,这一点不会改变。 “阻止它需要类似全球监视制度的东西,即使这样也不能保证有效,”博客中写道。
尽管面临这些挑战,OpenAI 的领导层仍然致力于探索这个问题,“我们如何确保实现保持超级智能安全的技术能力?”世界现在没有答案,但它肯定需要一个 ChatGPT 无法提供的答案。