“人工智能”仍是误称,目前所谓AI只是略微通过图灵测试

“人工智能”仍是误称,目前所谓AI只是略微通过图灵测试

“大球穿过桌子是因为它由发泡胶制成”和“大球穿过桌子是因为它由钢制成”。两句话中“它”各指什么?这个问题随便一个7岁的小孩子都能答得出,然而AI却不具有思索贯通的能力。

据外媒(VentureBeat)报道,如果你是X战警系列漫画的粉丝,你一定对X教授的脑波增幅器(Cerebro)不陌生。这是一个虚构的设备,X教授用它来观察人类的脑电波,并根据个人的思维特征来识别变种人。如果脑波增幅器真的存在,是否是一件可怕的事呢,全球范围的大脑阅读是否会让人们沉迷其中?

虽然目前人类尚未有能力打造这样一款神器(量子纠缠神经系统),然而社交网络上铺天盖地的帖子却正在从另一个方面展示着20亿人的“大脑活动”。只是我们缺乏有效的方法来检查和分析这些变相呈现的脑波,蕴藏其中的意义有待发掘。

在许多方面,软件给人发声提供了帮助。现有工具能够帮助消费者和企业之间快速对话沟通。这些工具使得企业通过开放、真实的对话吸引客户群体,并了解客户的需求和关注点。

然而,仍然有许多研究有待展开,特别是在统观层面。通常社交网络会显示房间里最响亮的声音。我们的技术只是收集和呈现声音,而未能深入探究其下的原因。表象之下的原因不会自动呈现,而是需要复杂的推断或者是冒险的假设。

人们通常只是关注网络言论和流行热词,而不能深入理解它。知道当下在发生什么并不等同于对当下人事的充分理解。现实人事是三维的,并非口头言语那么简单。

在过往,我们精密的算法和高超的技术从业者不足以把握人心和探究联系因果的精微。以最近的美国大选为例,无论是复杂的民调,还是专家学者的分析,都没能预测到最后的结果。在最后令所有人意外的结果出炉之后,各方又开始回过头来试图弄明白到底哪里出错了。有人认为社交网络对本此大选影响重大,答案也许就藏在数十亿的社交帖子中。

有没有可能使用人工智能来调查和获得结论呢?试想一个随时听候差遣的AI,这个数字助理能够分秒不断地监测和理解成千上万的帖子,从纷乱信息中梳理出概要。

不过恐怕今日之AI尚不能胜任这个任务。

虽然我们的AI系统能够抓取头条新闻,但其能力常常有限。Uber等公司正在使用AI来让自动驾驶汽车更好地感知周围环境,从而可以智能地转弯或躲避行人。但它们永远不会长出翅膀学会飞行。谷歌打造的AlphaGo能够击败人类最佳棋手,但关于围棋的历史文化它一无所知,它也无法“独立”去进行另一场比赛。

今天的“人工智能”一词仍然是一个误称。牛津英语词典对智能(intelligence)的定义为“获取并应用知识的能力”。以数字经济麻省理工学院(MIT)数字经济倡议的研究员兼AI意见领袖汤姆·达文波特(Tom Davenport)的话来说:“深度学习并不是深刻的学习。”另一位专家奥伦·埃佐尼(Allen Institute of AI)也有类似意见:“AI只是简单的数学的大规模执行。”简单说,AI实质只是一种强大的计算方式,并没有达到人脑那种堪称智能的方式。

那么,未来AI有没有可能实现自足的智能水平呢?

目前的AI研究正朝着更深入的方向前进。该领域的一个主要目标是使机器伪装成人类,并通过图灵测试。现在我们有了进阶版的图灵测试:威诺格拉德模式挑战(Winograd Schema Challenge)。图灵测试检验机器能否思考,而威诺格拉德模式进一步检测AI系统的常识推理能力以及对世界的运作方式的了解程度。

威诺格拉德模式挑战让人们意识到当下的AI水平并不像人们设想的那样顺利。为了理解这个测试,我们来看看今年O’Reilly AI大会上的一个例子:

“大球穿过桌子是因为它由发泡胶制成”和“大球穿过桌子是因为它由钢制成”。两句话中“它”各指什么?这个问题随便一个7岁的小孩子都能答得出。然而AI却不具有思索贯通的能力,相反它只会从网络上搜索大量信息,然后给出“它”的定义。

只有当AI实现更接近人类的深度学习和理解能力时,使用AI来处理人脑力不能及的庞大数据才能成为可能。

像威诺格拉德模式挑战这样的测试能够敦促AI更好地理解语言暗示和事物之间的关联。基本的语言理解能力是实现强智能的基础。只有在此之上,独立习得和应用知识才能成为可能。

目前的AI只是略微超过了图灵测试的水准,未来还有很多工作要做。

*本文由新芽NewSeed合作伙伴网易科技授权发布,转载请联系原出处。如内容、图片有任何版权问题,请联系新芽NewSeed处理。

相关专辑

我,机器人

我,机器人