亚马逊上人工智能(AI)生成的旅游指南激增,引起了专家的注意,他们对潜在的可怕后果提出了警告。从烹饪书到旅游指南,人类作者都在向读者发出呼吁,强调坚定不移地依赖人工智能的潜在危险。
纽约真菌学会已经采取了以下措施X(前身为 Twitter) 就疑似由 ChatGPT 等生成式人工智能工具生成的可疑觅食书籍所带来的危害发出强烈警告。
纽约真菌学会主席西格丽德-雅各布(Sigrid Jakob)指出:"北美有数百种有毒真菌,其中有几种是致命的。它们看起来可能与常见的可食用物种相似。书中的错误描述可能会误导人们食用毒蘑菇"。
在亚马逊上搜索发现了大量可疑的标题,其中包括 "The Ultimate Mushroom Books Field Guide of the Southwest" 和 "Wild Mushroom Cookbook For Beginner" [原文如此]--这两本书后来都被删除了。
这些特殊的标题很可能是由不存在的角色撰写的,它们强调了人工智能生成内容的出现 .这些所谓的出版物沿袭了我们熟悉的模式,首先是关于业余爱好者的简短虚构轶事,让人觉得不真实。
通过对内容本身的深入研究,可以发现其中存在许多不准确之处,而且文本构成模仿了人工智能生成文本通常具有的独特模式,而不是来自真正的真菌学专业知识。
然而,令人不安的是,这些书籍是为经验有限的觅食冒险者准备的,使他们无法区分不可靠的人工智能律师 可靠和真实的信息来源。
Sigrid 补充说,"人类撰写的书籍可能需要数年的研究和写作时间"。
它有多致命?
鉴于人工智能在缺乏警惕性监督的情况下有能力传播错误信息甚至是危险的建议,我们在依赖人工智能时谨慎行事的重要性怎么强调都不为过。最新研究结果 强调了一个令人不安的趋势:人们更容易接受人工智能传播的虚假信息,而不是源于人类的捏造。
这种现象已经超出了有问题的觅食指南的范畴。最近,一个人工智能应用程序向用户推荐危险食谱的例子引起了人们的关注。
在新西兰,连锁超市Pak 'n' Save推出了一款名为 "Savey Meal-Bot "的人工智能膳食计划应用程序,旨在根据用户输入的食材推荐食谱。然而,作为一个恶作剧,用户向该应用程序输入了有害的家庭用品,结果却收到了制作有毒调料的建议,如"芳香水混合"和"甲醇幸福".";
虽然该应用程序后来进行了修改,以阻止不安全的建议,但它强调了在没有负责任的部署的情况下利用人工智能所产生的内在危险。
尽管如此,人工智能生成的虚假信息也不应该让我们措手不及。像大型语言模型(LLMs)这样的语言模型可以根据最有可能和最连贯的结果来制定内容,这是通过在大量数据集上进行广泛训练而实现的。
这种能力会让人类相信人工智能,因为它的输出结果与我们认为有利的结果非常接近。创新算法固然可以增强人类在不同领域的能力,但把我们的判断力完全交给机器,对整个社会来说是一个不稳定的命题。
在当前技术不断发展的时代,我们需要时刻警惕将决策者的角色交给人工智能时可能出现的隐患。