你们中的大多数人可能都听说了这个消息--丁立人成为新一届国际象棋世界冠军。作为一名棋迷,我自然关注着比赛的进展,并使用名为 "Stockfish "的人工智能机器人进行了分析。
斯托克鱼等国际象棋引擎是如何精确分析和评估局面的我们不得而知,但它们的输出结果是人类可以理解的。正评估表示白棋获胜,和棋的评估值为 0,负评估表示黑棋获胜,以此类推。
但这个数字从何而来?它来自 Stockfish 自己对局面的评估,考虑了许多因素并输出了一个数字。我们经常被告知,这个数字大致相当于一方的优势兵数。
然而,对于棋手来说,这种理解棋局的方式实在是太不直观了。
数字给了我们答案,是的。而且这个数字在大多数情况下都是客观正确的,因为人工智能在评估谁是赢家和什么是最佳棋步时,已经考虑到了许多不同的因素、未来可能的棋步等等。
更重要的是'为什么对该职位的评价是这样的?'而知道答案绝不能为你揭示答案的原因。
作为棋手,这可能会让人感到愤怒。这迫使我们花时间去寻找国际象棋引擎评估的原因,而这些原因往往很难找到。
试想一下,一位老师给你出了一道极难的题,也给了你答案,但却拒绝和你一起推理,也不给你提示。你会理所当然地得出结论:这样的老师是个差劲的老师。然而,答案几乎肯定是正确的,而且理由充分。
人工智能算法让我们困惑的时候还不止这一次。在 Netflix 和 Youtube 等网站上,人工智能算法被用来为我们推荐视频,我们在网站上停留的时间越长,算法就越好,但除了指出我们衡量这些算法成功与否的指标以及这些算法可以访问的数据之外,我们对这些人工智能算法的实际了解却很少。
但是,了解它们成功的原因会对我们大有帮助,而这正是人工智能的下一个巨大发展方向--制造出让我们能够理解的人工智能。
客观性不等于可理解性
我所说的让人工智能为我们所理解,并不是指我们能理解人工智能在说什么,而是指人工智能能以直观的方式进行解释。
Stockfish的对应软件是AlphaZero--由谷歌子公司Deepmind开发。AlphaZero 不会评估国际象棋的局面和走法并输出一个看似随机的数字,而是用概率来衡量局面。AlphaZero 的任何输出结果都介于-1 到 1 之间,而 Stockfish 则经常会给出数以百计的数字,但却不清楚这些数字究竟意味着什么。
下图显示了传统国际象棋引擎评估(通常用厘子表示)与 Leela(AlphaZero 的后继者)评估的相关性。
重要的是,AlphaZero 和 Leela 仍然给出了客观的评价,但这些评价给人的感觉更加直观。为什么呢?因为它给出的评价也更符合你的感受。
局面从 0 到 +5 与对局从和棋到白棋获胜概率高有关。但局面从 +5 到 +10 真的有很大区别吗?虽然 Stockfish 给出的评估差异相同,但从 0 到 +5 大致反映了从无胜算到 80% 胜算的变化,而从 +5 到 +10 只增加了 10% 的胜算。
为什么这个指标更好?因为它也更符合我们对局面的感觉。看着局面从0平变成+5优势,感觉就像是白方给对手施加了很大的压力,而对手则屈服于压力。另一方面,优势从+5增加到+10并没有什么感觉,因为大部分工作已经完成了。
这就是我所说的让人工智能更易懂的部分含义--本例中的人工智能更易懂。它更加直观,输出结果客观正确,而且我们也能感受到。
传统的人工智能在客观性方面一直很出色,但人类不会从人工智能不断提高的客观性中看到巨大的进步。这就是 Paypal 创始人彼得-蒂尔(Peter Thiel)所说的 "从 1 到 n"。相反,我们需要的是 "从 0 到 1",做一些与众不同的事情--那就是让人工智能更容易被人类理解。
AlphaZero 已经实现了这一目标的一部分--通过使输出更直观,它正朝着让人类更容易理解人工智能的方向前进。但还能做些什么呢?
了解人性
1983 年,Electronic Arts 公司在杂志上刊登了一则广告。这则广告刊登的时代,正是电脑刚刚崭露头角的时代。广告中承诺将发挥个人电脑的潜力。
文章开头提出了一个重要的问题,并引人深思:
"电脑能让你哭吗?现在还没有人知道。部分原因是许多人会认为这个想法很无聊。但这也是因为,无论谁成功回答了这个问题,都必须先回答了其他几个问题。
我们为何哭泣?我们为什么会笑、为什么会爱、为什么会笑?我们情感的试金石是什么?
在此之前,提出这类问题的人往往不是经营软件公司的人。相反,他们是作家、电影制作人、画家、音乐家。从传统意义上讲,他们是艺术家"。
这些问题在 1983 年是很有先见之明的,当时计算机刚刚成为大众消费品。但在今天,这些问题同样具有现实意义。在过去的几十年里,我们已经开发出了在计算、客观性和概念理解方面越来越出色的人工智能。
但如今,这些问题虽然仍然重要,却越来越不是唯一需要回答的问题。我们需要提出新的问题,即人工智能如何以人类能够理解的方式表达自身,或者人类如何才能更好地理解人工智能。
人工智能对其输出的答案进行更好的自我解释,可以让人们更清楚地了解他们的决定是如何做出的,以及为什么他们的答案是正确的。毕竟,当研究人员发表他们的研究成果时,重要的不仅仅是结论--他们还应该包括方法论、数据集、定性推理等等。
要向人工智能学习,人类需要更好地理解人工智能,人工智能需要更好地与人类交流--不仅仅是通过数字、信号和灯光,而是通过文字、图片和情感。解释可以做出的决定、进行的计算以及这些操作的目的,是人工智能需要更好地做到的。
人工智能的下一步将不是通过提高计算机的计算能力来实现,而是通过让人工智能以人类能够更好地理解它的方式,甚至是非程序员也能做到的方式来表达自己。