编者按:人工智能诞生至今已有60多年,美国的一些最大型的科技公司(Amazon、微软、Google、Facebook等)才刚刚开始挖掘AI的潜能,并设法弄清楚人工智能将如何改变我们的未来。本文是《Fast Company》汇编的系列文章“AI的新规则”的第四部分,介绍的是Google在AI方面的努力和历程。原文作者是Katrina Brooker,标题为:Google’s quantum bet on the future of AI—and what it means for humanity
AI的新规则(一):亚马逊的AI正在向不良UGC宣战
AI的新规则(二):在这个容易分心的时代,微软希望AI能成为你的同事
AI的新规则(三):AI推荐的烂摊子暂时还得人来收拾
人脑真是一个有趣的东西。某些记忆可以伴随着我们一生:孩子的出生、车祸、选举日。但是,我们只记得一些细节(医院分娩室的颜色,或投票站的味道),而其他一些则会慢慢褪色,比如孩子出生时的护士是什么样的,或事故中我们穿什么衣服。对于Google CEO Sundar Pichai来说,看着AI从实验室中走出来的那一天是他永生铭记的日子。
他告诉我:“那是2012年,跟一支小团队在一间房,里面就我们几个人。”有位工程师叫Jeff Dean,他是Google的传奇程序员,曾帮助构建Google开发了搜索引擎。他一直在做一个新项目,希望Pichai能来看看。他说:“只要Jeff想告诉你什么事情,你都会对此感到兴奋。”
尽管当天的奇怪细节一直在自己脑海里挥之不去,但Phchai已经记不起Dean展示作品时自己是在哪一栋建筑。他记得自己是站着而不是坐着,还有人取消HR的办事不力,因为他们把新招来的Geoffrey Hinton任命成了实习生——他可是 “深度学习之父”,从事工作40年的AI研究人员,还是后来的图灵奖得主。
这位Google未来的CEO当时是一名高级副总裁,负责Chrome和Apps的运营,他还没有考虑过AI。其实整个Google都没人重视过这个。的确,Google联合创始人Larry Page和Sergey Brin 12年前曾公开表示,人工智能将变革Google:“理想的搜索引擎应该是智能的。”Page在2000年5月曾告诉《在线》,“它必须了解你查什么,并且必须理解所有文档,这显然是AI。”不过尽管前景可观,但无论是在Google还是其他地方,机器学习这几十年来取得的成功寥寥。
不过,现在,Google的服务器内部正在暗流涌动。在一年多的时间里,Dean、Ng Andrew和他们的同事一直在建造一个庞大的计算机网络,那些计算机是以模拟人脑的方式连接到一起的。这个团队在1000台计算机里面设计了16000个处理器,加起来总共可以建立10亿个连接。尽管与人脑的100万亿连接的能力仍然相去甚远,但对于计算机系统而言,这是史无前例的规模。
为了测试这种庞大的神经网络会如何处理数据,工程师进行了一个看似简单的实验。他们连续三天给机器看Google在2006年收购的YouTube视频里面随机筛选出来的数百万张图片。他们没有给出任何指令,就想看看机器自己能干出什么样的事情。他们了解到,拼命消化YouTube内容的计算机大脑与人类的大脑并没有太大的不同。在计算机内存的一个偏僻角落,Dean和他的同事发现,它已经自发地生成了一张模糊的,过度像素化的图片,图片的内容是那72小时它一直都在看的东西:一只猫。
这就是机器在教自己思考。
当他第一次看到这种智能从Google的服务器里面冒出来的那一天,Pichai 记得自己的思想发生了转变,他有一种预感。他说:“ 这个玩意儿会做大的,说不定还能揭示宇宙的运作方式。这会是我们人类从事的最重要的工作。”
AI从Google内部崛起就像是我们数十亿人共同踏上的一段旅程,我们正奔向一个很少有人能完全理解但又没有回头路的数字化未来。一个很大程度上由Google主导的未来。这个星球上很少有其他公司(更不用说政府了)有这种能力或雄心去推进计算机化的思维。有着10亿用户的Google运营的产品数量超过任何其他科技公司:Android、Chrome、Drive、Gmail、Google Play、Maps、Photo、搜索以及YouTube。除了一个地方,否则只要有互联网连接,几乎可以肯定你的大脑的某些部分的增强就得靠Google。
2015年,Pichai 接任CEO后不久,就开始着手把Google重塑为“AI优先”的公司。它已经有几个以研究为导向的AI部门,包括Google Brain和DeepMind (于2014年收购)等,Pichai的关注点是把所有有关智能的智能转化为新的、更好的Google产品。2018年5月推出Gmail Smart Compose功能,现在每周已经建议了20亿字符的邮件草稿。Google翻译可以用你不会说的语言重建你的声音。Google的AI个人助理Duplex可以通过电话为你预约或者预订,它的声音听起来很像人,许多接听者并不知道对方是个机器人,从而引发了道德问题和公众投诉。该公司表示,自己一直都在告诉消费者这些电话来自Google。
Google AI的影响力远超出该公司的产品范畴。外部开发人员(无论是初创企业还是大型公司)现在都在使用Google的AI工具,来完成从训练智能卫星到监视地表变化乃至于根除Twitter上的侮辱性语言的一切工作(好吧,还在尝试)。现在有数百万台设备在使用Google AI,而这仅仅只是开始。Google即将实现所谓的量子霸权。这种新型计算机破解复杂方程式的速度可以比常规计算机快一百万倍甚至更多。我们即将进入计算的火箭时代。
用得好的话人工智能有可能帮助社会。它也许可以找到治疗致命疾病的方法(Google高管说,它的智能机器已经证明了比人类医生提前整整一年发现肺癌的能力),让饥饿者吃饱,甚至解决气候问题。数名主要AI研究人员(其中就包括跟Google合作的研究人员)在6月份提交给康奈尔大学科学期刊的论文中,已经明确了几种机器学习可以解决气候变化的手段,包括加速开发太阳能以及对能源使用进行彻底优化等。
用得不好的话,AI也可能助纣为虐。今年6月,The American Civil Liberties Union发布报告称美国已经安装了数百万个监视摄像机(比方说Google出售的那种监视摄像机)。同月有人发起诉讼,指控Google在医院使用人工智能侵犯了患者的隐私。
人类历史上每一次有力的进步都可以被善与恶利用。印刷机促进托马斯·潘恩(Thomas Paine)的《常识》以及阿道夫·希特勒的法西斯宣言《我的奋斗》的传播。但是,对于AI来说,这种困境还有一个额外的维度:印刷机不会选择自己设定的类型。而如果AI发挥其全部潜力时,它有能力做到这一点。
现在是提问的时机了。7月份刚拿到微软10亿美元投资,专注发展通用人工智能的初创企业OpenAI联合创始人Greg Brockman说:“想想看发明火、开启工业革命或者开发原子能的时候你希望大家会怎么想的。”
左派和右派的政党都认为Google已经变得太大了,需要拆分。被拆分后的Google能够让AI大众化吗?或者,就像该公司的领导人警告那样,这样会导致把AI的霸权拱手让给中国吗?
在Google内部,不同的派系在争夺AI的未来。成千上万的员工却在反抗他们的领导人,试图阻止他们利用的技术来帮助美国政府进行间谍活动或发动战争。Google决定如何去开发和部署AI很有可能会决定着这项技术最终是帮助还是损害人类。斯坦福大学以人为本人工智能研究中心董事会成员,LinkedIn联合创始人兼风险投资人Reid Hoffman解释说:“一旦构建了这些[AI]系统,它们就可以在全球范围内进行部署。这意味着[它们的创造者]无论做对了还是搞砸了都会产生相应巨大规模的影响。”
加州山景城,那是春天的一个绚丽多彩的傍晚,在一颗棕榈树下,Jeff Dean说: “一开始,神经网络是未经过训练的。”那是海岸线圆形剧场的外面,一年一度的Google I/O大会开幕日聚会的举办地。
这场活动是Google向开发人员以及世界其他地方披露自己下一步去向何方的地方。Dean身穿淡紫色灰色马球衫,牛仔裤,运动鞋背着双肩背背包的Dean是活动的头牌人物之一。一位韩国软件程序员说:“就像是看到Bono一样”。他在当天早些时候的找了个机会急忙跟Dean来了张自拍照。另一个人则很严肃地告诉我:“Jeff就是上帝,”,对我几乎不知道这事儿感到很诧异。在Google,Dean经常被拿来跟Chuck Norris相提并论,这位动作明星以好身手以及抗压同时对抗多人攻击著称。
当服务员拿着一盘纯素食木薯布丁杯停下来时,Dean咧嘴一笑:“ 哦,那东西看起来不错!给我一份。”靠在一棵树上的他谈到神经网络时,就像Laird Hamilton描述在塔西提岛冲浪一样。他两眼发光,不断挥舞双手来打手势。“好吧,这些就是网络的各层,”他说着,一边抓住树,用灰褐色的树干来解释计算机大脑的神经元是怎么互联的。他专心地望着那棵树,仿佛看到里面隐藏着什么。
去年,Pichai 任命Dean为Google AI的负责人,这意味着他要负责公司将要投资和开发的东西——他职责的一部分就是是将YouTube神经网络实验扩展到一个新的框架里面,好去训练他们的机器进行大规模的思考。该系统始于一个名为DistBelief 的内部项目,许多团队(包括Android,Maps和YouTube)都开始用这个项目来让他们的产品变得更智能。
但是到了2014年夏天,随着DistBelief 在Google内部的发展壮大,Dean开始发现它存在的缺陷。它的设计并未考虑到GPU崛起或者语音以高度复杂数据集的面目出现这样的技术转变。另外,DistBelief 一开始并不是设计成开源的,这限制了它的发展。因此,他做出了一个大胆的决定:要开发一个向所有人开放的新版本。2015年11月,Pichai推出TensorFlow ,这是DistBelief的继任者,也是他作为CEO的第一个重磅发布之一。
将TensorFlow想Google外部的开发者开放的重要性再怎么强调也不为过。全球最大的计算机芯片设计商ARM的机器学习总监Ian Bratt 说:“大家迫不及待想要掌握它。”如今,Twitter正在用它来开发机器人来监视对话,对tweet进行排名,并引诱大家在新闻流中消磨更多的时间。空中客车公司正在用它来训练卫星,让卫星能够检查地表的几乎任何部分,精度可达到几英尺的范围。新德里的学生已经把移动设备变成了空气质量监测仪。去年春天,Google发布了TensorFlow 2.0的早期版本,使得经验不足的开发人员可以更轻松地使用它的AI。其最终目标是让开发AI应用程序变得跟开发网站一样容易。
TensorFlow 现在已被下载了约4100万次。数以百万计的设备(汽车,无人机,卫星,笔记本电脑,电话)都在用它来学习、思考、推理和创造。该公司的内部文件有一张图表,那张表跟踪了Google内部TensorFlow 的使用情况(引申而言,它跟踪的是机器学习项目):自2015年以来增长了5000%。
不过,技术内部人士指出,如果说TensorFlow 是给开发人员的一份礼物的话,那么它也可能是一个特洛伊木马。一位前Google工程师说:“我担心他们想要成为AI的看门人。”他不愿透露姓名,因为他目前的工作有赖于Google的平台。目前,TensorFlow 只有一个主要竞争对手,那就是Facebook的PyTorch ,后者在学者当中很受欢迎。这使得Google可以牢牢控制着AI的基础层,并且可以将其可用性跟Google的其他约束捆绑在一起。这位人士继续说道:“看看Google在Android上做了什么。” 去年,欧盟监管机构对该公司处以50亿美元的罚款,原因是该公司要求电子制造商在运行其移动操作系统的设备上预装Google应用。Google很有吸引力,但正由于其在欧洲和印度的反竞争行为而面临进一步调查。
通过帮助AI扩散,Google创造出了对自己可以拿来卖的新工具和产品的需求。Tensor Processing Units(TPU)就是例子,这玩意儿是用于加速试验TensorFlow 的应用程序的集成电路。如果开发人员的TensorFlow 应用需要更大的计算能力(一般都需要),他们可以付费给Google买时间和空间,在Google数据中心用这些芯片来跑自己的应用。
TensorFlow的成功说服了Google领导层当中的怀疑者。2017年,Sergey Brin在世界经济论坛的一次采访中回忆道:“每个人都知道AI不行,大家都试过了,他们试过了神经网络,但没有一个起作用。”即便Dean和他的团队开始取得进展,Brin依然不屑一顾。他说:“Jeff Dean时不时会来找我,说,‘看,计算机画了一张猫的照片。’我说,‘好吧,Jeff,那真是太好了。’” 但是他不得不承认,人工智能是“我一生当中计算最重要的进展。”
海岸线圆形剧场4号舞台可容纳526人,所有位置都坐满了人。这是I / O大会的第二天,Google创新负责人Jen Gennai 主持了一场会议,主题是“编写公平、道德的人工智能和机器学习的剧本”。她告诉在场的观众:“我们给自己划了四条红线,也就是我们不会去追求的技术。我们不会制造或部署武器。我们还不会部署我们认为违反国际人权的技术。”(该公司还承诺避免使用会造成“全面伤害”并“收集或利用信息进行监视,违背国际公认准则的技术。”)她和另外两位Google高管继续解释说,该公司现在如何将其AI原则贯彻到自己开发的所有东西里面,并且Google还制定了一项全面计划,来处理从消除其算法中的偏见到预测AI的意外后果的一切事情。
那场讲话之后,来自不同公司的一小群开发人员对此并不满意。一家使用TensorFlow且经常跟Google合作的大型国际公司的员工观察道:“我觉得我们得到的承诺还不够。他们告诉我们说,‘别担心。我们知道了’。我们都知道他们并不‘知道’。”
这些开发人员完全有权对此表示怀疑。Google经常言行不一,但人工智能的风险更大。2018 年3月,Gizmodo 率先报道了该公司与五角大楼签订的AI无人机攻击技术合同,即所谓的Project Maven。Google员工抗议了三个月后,Pichai 宣布不再续签合同。此后不久,另一个项目Dragonfly又浮出水面。员工又抗议了四个月。去年12月时Pichai 告诉国会,Google并无此计划。
在那场动荡中,一位Google工程师直接跟Dean面对面:“我们需要知道:红线是什么?”工程师告诉我,回应了Google的废话。“这是我一直在争取的:什么是你永远不会做的事情?我从来都没有得到澄清。”那位员工后来以辞职来表示抗议。
当被问到关于人工智能的阴暗面时,友善的Dean马上变得严肃起来。在谈到他们在Maven上的工作时他说:“我们公司的人对我们应该跟美国国防部一起做什么事情方面非常的直言不讳。” Dean调出了Google不会去做的AI应用列表。他眼睛盯着我说:“其中之一是自动武器的研究。对我来说,这是我不想做或者不想扯上关系的事。”
在Project Maven刚开始引起争议的时候,The Intercept和《纽约时报》均公布了披露Google内部担忧的电子邮件,那些邮件担心外部会如何解读Google对AI的野心。彼时任Google云计算首席AI科学家(以及Google AI原则的作者之一)的李飞飞告诉一名同事说:“如果媒体开始拿起Google正在秘密开发AI武器来说事儿的话,我不知道会发生什么。要不惜一切代价提起或者暗示AI。武器化AI哪怕不是最重要可能也是最敏感的主题之一。对于想方设法想要迫害Google的媒体来说,这是块红肉。”她还建议Google植入一些积极的,关于Google民主化AI的公关故事,并称之为人文主义AI。她写道:“我会非常谨慎地保护这些非常正面的形象。” (李飞飞拒绝接受本文的采访。后来她离开了Google,到斯坦福大学以人为本AI研究所做领导去了。)
这些AI抗议活动造成了旷日持久的公关危机。今年3月,该公司宣布成立了一个先进技术外部咨询委员会(Advanced Technology External Advisory Council),也就是俗称的AI道德委员会,但由于数千名Google员工抗议委员会的组成,一周后该委员会就解散了。委员会成员包括一家无人机公司的CEO以及右翼的Heritage Foundation的总裁,他们均公开发表过跨性别恐惧症的声明,并且拒绝承认气候变化。
Pichai 本人曾经介入过几次。去年11月,他曾写信给员工,承认Google的失误。他说:“我们认识到过去并没有把每一件事情都做对,对此我们深表歉意。很显然,我们需要做出一些改变。”但是,在如何部署技术事情上Google一直饱受争议。8月,一个名为Googlers for Human Rights 的员工组织发布了一封获800多签名的公开请愿书,要求该公司不要向海关和边境保护局,移民和海关执法局或难民安置办公室提供任何技术。(一位Google发言人回应说公司对员工的行动表示支持。)
当我问Pichai 关于Google的AI原则会如何影响他自己的工作时,他把这个东西跟公司的另一个优先事项联系在一起:那就是消除对Google如何处理所拥有的用户数据的担忧。他说:“现在我推动团队做的都是AI和隐私方面的工作。这有点违反直觉,但是我认为AI其实为我们提供了增强隐私的机会。”去年春天,他曾讨论过Google内部利用机器学习来保护智能手机上的数据以防止外人访问的努力。
他说,现在大家对人工智能危险性的担忧已经有点夸大了。他解释说:“对于大家来说,知道哪些东西不用担心也很重要,因为现在确实还很早,而且我们的确有时间。” Pichai 希望Google可以通过展示其优点来平息对AI危险性的任何顾虑。根据一项名为“AI for Social Good(社会公益AI)”的倡议,Google正在部署机器学习来解决其所谓的“全球最大的社会、人道主义与环境问题。”有一些团队利用AI来预测洪水,追踪鲸鱼,诊断癌症和检测非法采矿和伐木。在I / O大会上,应Google邀请,乌干达的一位年轻的创业者介绍了利用TensorFlow 来跟踪粘虫(这是造成非洲大陆饥荒的原因)在整个非洲的行踪。Google的AI Impact Challenge于2018年启动,目前已向慈善机构和初创公司提供老2500万美元的赠款,这些慈善机构和初创公司会利用这些资金把AI应用到诸如拯救雨林和灭火等事业上。
在这场旷日持久的AI大辩论中,该公司还撤回了两项有争议的计划。去年12月,Google搁置了面部识别软件,而它的竞争对手Amazon尽管也有员工抗议,却依然推出了自己的版本。一位内部人士估计,此举可能会使Google损失数十亿美元的收入。该公司还出于道德方面的考虑而退出了一个项目的竞标,那是一个为五角大楼提供云计算项目,价值100亿美元。而Amazon和微软的还在跑。
当被问及Google如何确定一个项目对社会有利还是不利时,Pichai 介绍了一个叫做“唇读项目(lip-reading)”的东西。一群工程师想到了一个点子,就是用摄像头的AI来解读唇语。其目的是让不能说话的人也能进行交流。但是,一些人对意外后果表示关注。坏人会不会利用街头的摄像机来监视别人?工程师用街头摄像头、闭路电视以及其他的公共摄像头来进行测试,然后确定只有特写镜头时才能让系统正常工作。Google发表了一篇论文来详细介绍这项工作,并且确信目前该系统可以安全使用。
那是加州圣塔芭芭拉一个阳光明媚的下午,但Google实验室内的温度计读数仍为10 密耳尔文,这大概比绝对零度高1开尔文的1/100。“这里是宇宙中最冷的地方,”在实验室工作的研究科学家Erik Lucero告诉我。他指着一个闪亮的金属容器说:“那里面比太空还要冷。”那个容器样子看起来像个油桶,由铜制成,并镀有真金。由铌钛制成的粗线从顶部冒出来,就像章鱼一样,它们发送测量信号给处理器或者接收后者的控制信号。
这个容器里面藏着地球上最脆弱但又功能最强大的机器之一:量子计算机。如果一切都按计划进行的话,它将会极大地提升人工智能的能力,并且是以一种有可能会重塑我们对宇宙的思考的方式进行。
自1980年代以来,人类就怀抱着量子计算的梦想,制造原子弹的曼哈顿计划的元老理查德·费曼开始思考解锁计算能力的理论化手段,办法是利用创造出核科学的量子机制。我们今天的计算机跑的都是相当于0或1的信息位。他们必须一步步地计算结果、概率和方程式,在得出答案之前要穷尽每一个选项。相比之下,量子计算机产生的是量子比特,在量子比特里面,0和1是可以共存的。这使得量子比特处理某些类型的信息可以更快。能快多少?一个被广泛引用的例子是,一个300量子位的计算机可以执行的并发计算数可以跟宇宙的原子数量一样多。
卢塞罗引导我透过显微镜往下看,在底下我看到一些模糊的黑色的X,他说:。“这些实际上就是量子比特。”一共有22个。这个量不算大。在实验室的另一个地方那里,Google已经创造出72个量子比特。不过目前,这些量子比特只能存活20微秒,而且它的环境必须比外太空还要冷。
为了制造出商业上可行的量子计算机,Google得生成足够的量子比特,并且要让这些量子比特保持稳定而且不出错误的时间足够长,这样才能能够实现任何重大的计算突破。这一块也有其他的实验室在竞争,但是Google这里聚集了一些全球最重要的专家,他们在寻找办法来创造出让量子比特能够生存和繁荣的环境。它正朝着这个目标迈进,步伐比任何人预期的都要快:去年12月,Google用常规笔记本电脑对自己最好的量子处理器进行了测试,结果笔记本电脑获得了胜利。几周后,在对处理器进行了一些调整之后,它击败了笔记本电脑,但仍然落后于台式机。今年2月,他们的量子计算机性能已经超过了实验室所有其他计算机。
领导Google量子团队的Hartmut Neven 在今年5月的Google量子春季研讨会上介绍了实验室的进展,他用双指数来形容处理能力的提高,这是个令人费解的公式,如下所示:
在计算机科学界,这种量子计算的增长率被称为Neven 定律,这是向摩尔定律的致敬。这个定律认为,“典型”计算的发展是每18个月芯片可容纳的晶体管数量就会增加一倍。
现在,Google的团队正在努力实现所谓的量子霸权的主要里程碑。Google的量子计算机要想发挥其全部潜力还需要数年的时间。但是在实验室里,明显可见感受到对这一刻的预期。卢塞罗站在准备实现这一壮举的机器旁边说:“目前人类有些问题是没有量子计算机的话无法解决的。一想到人类将要能发挥新的潜能就令人兴奋。”
屋子里面正在有节奏地嗡嗡作响,那是量子比特在孵化的声音。当计算机可以在平行平面上以指数级的速度进行思考和计算时,这对人类究竟意味着什么呢?这项新兴科学或许能够解释宇宙中最大的奥秘——暗物质、黑洞、人脑。Lucero说:“这是我们的‘Hello, World!’时刻。”他指的是1984年Macintosh的引入,那台计算机为新一代的码农开启了一个新时代。随着Google打开了通往这个新宇宙的大门,我们都需要为门外的东西做好准备。
译者:boxi。