作者:John deVadoss,CryptoSlate;编译:邓通,金色财经
2024 年 1 月的达沃斯论坛主题是人工智能。
人工智能正在被兜售; 主权国家正在宣传他们的人工智能基础设施; 政府间组织正在审议人工智能的监管影响; 企业高管大肆宣扬人工智能的前景; 政治巨头们正在争论人工智能的国家安全内涵; 几乎你在主大道上遇到的每个人都对人工智能滔滔不绝。
然而,内心却隐藏着一丝犹豫:这是真的吗? 以下是您应该了解的关于人工智能的 10 件事——好的、坏的和丑陋的——整理自我上个月在达沃斯的一些演讲。
准确的术语是“生成式”人工智能。 何为“生成”? 虽然之前的人工智能创新浪潮都是基于从数据集中学习模式并能够在对新输入数据进行分类时识别这些模式,但这一波创新是基于大型模型(又名“模式集合”)的学习,并能够使用这些模型创造性地生成文本、视频、音频和其他内容。
不,生成式人工智能并不是幻觉。 当之前训练过的大型模型被要求创建内容时,它们并不总是包含完全完整的模式来指导生成; 在那些学习模式仅部分形成的情况下,模型别无选择,只能“填空”,从而导致我们观察到的所谓幻觉。
正如你们中的一些人可能已经观察到的,生成的输出不一定是可重复的。 为什么? 因为从部分学习的模式中生成新内容涉及一定的随机性,本质上是一种随机活动,这是一种奇特的说法,即生成式人工智能输出不是确定性的。
内容的非确定性生成实际上为生成式人工智能应用的核心价值主张奠定了基础。 使用的最佳点在于涉及创造力的用例; 如果不需要或不需要创造力,那么该场景很可能不适合生成式人工智能。 以此作为试金石。
微小的创造力提供了非常高的精确度; 在软件开发领域使用生成式人工智能来生成供开发人员使用的代码就是一个很好的例子。 大规模的创造力迫使生成式人工智能模型填补非常大的空白; 这就是为什么当你要求它写一篇研究论文时你往往会看到错误的引用。
一般来说,生成式人工智能的比喻是德尔福的甲骨文。 神谕的表述含糊不清; 同样,生成式人工智能的输出也不一定是可验证的。 询问有关生成式人工智能的问题; 不要将事务性操作委托给生成式人工智能。 事实上,这个比喻远远超出了生成式人工智能,延伸到了所有人工智能。
矛盾的是,生成式人工智能模型可以在科学和工程领域发挥非常重要的作用,尽管这些通常与艺术创造力无关。 这里的关键是将生成式人工智能模型与一个或多个用于过滤模型输出的外部验证器配对,并让模型使用这些经过验证的输出作为后续创造力周期的新提示输入,直到组合系统产生期望的结果。
生成式人工智能在工作场所的广泛使用将导致现代的大鸿沟; 那些使用生成式人工智能以指数方式提高创造力和产出的人,以及那些将思维过程放弃给生成式人工智能并逐渐被边缘化并不可避免地休假的人。
所谓的公共模型大多是有污点的。 任何在公共互联网上接受过训练的模型都经过了网络末端内容的训练,包括暗网等。 这具有严重的影响:一是模型可能接受过非法内容的训练,二是模型可能被特洛伊木马内容渗透。
生成人工智能的护栏概念存在致命缺陷。 正如上一点所述,当模型受到污染时,几乎总有办法创造性地促使模型绕过所谓的护栏。 我们需要更好的方法; 更安全的方法; 一种导致公众对生成人工智能的信任的方法。
当我们目睹生成式人工智能的使用和滥用时,我们必须向内审视,并提醒自己人工智能是一种工具。