“ChatGPT之父”剑桥演讲遭抵制,学术大佬激战AI安全

“ChatGPT之父”剑桥演讲遭抵制,学术大佬激战AI安全

2023-11-06 10:13Newseeders 合作伙伴
11月2日凌晨,OpenAI CEO Sam Altman在英国剑桥参加活动时,遭到了反AI活动的激进分子的强烈抵制。

随着美国政府发布新的AI法规,关于监管AI大模型一事最近又起争议。

北京时间11月2日凌晨,“ChatGPT之父”、OpenAI CEO奥特曼(Sam Altman)在英国剑桥参加活动时,遭到了反AI活动的激进分子的强烈抵制,在大礼堂里当面被“砸场子”,少数抗议者要求停止AI竞赛。

一些抗议者甚至在阳台上悬挂横幅、扔下传单,场面一度十分混乱。当然,奥特曼在现场倒是很镇定,气定神闲地完成了这场活动。

奥特曼在演讲中表示,即便未来AI模型足够强大,但也需要巨大的算力才能运行。如果提高了算力门槛,能够降低蓄意犯罪风险,也能提高问责性。早前,OpenAI联合创始人Ilya Sutskever直言,ChatGPT可能是有意识的,AI将有潜在风险。

与此同时,Meta AI首席科学家、2018年“图灵奖”得主杨立昆(Yann LeCun)近日则多次在社交平台上痛批Altman、DeepMind CEO 杰米斯·哈萨比斯(Demis Hassabis)、Anthropic CEO等人正向美国政府“进行大规模的企业游说”,最终可能会导致只有少数大科技巨头能控制AI技术。

杨立昆直指这些人散布恐惧活动。“如果他们成功,你我将不可避免地导致一场灾难——少数公司将控制AI。”

随后,哈萨比斯驳斥,“我非常不同意杨立昆的大部分言论。”他指出,在讨论如何*地利用AI时,谷歌DeepMind并不是试图实现“监管捕获”,现在就开始讨论如何监管潜在的超级AI更为重要。

在AI大模型竞争日趋白热化的当下,行业进入“混战”,围绕巨头控制 AI这一话题,所有人都在进行激烈交战。

AI是人类*威胁?

马斯克:AI将比人类更聪明

过去的近12个月内,ChatGPT席卷全球,生成式AI已完全成为今年科技圈的中心话题。

如今,苹果公司也开始拥抱AI。

北京时间11月3日上午四季度财报会上,苹果公司CEO蒂姆·库克(TimCook)谈到,苹果公司已经在生成式AI方面开展各项工作,并正在投入大量的资金负责任的去做。“随着时间推移,你会看到以这些技术为核心的苹果产品将得到进步。”

早前彭博社报道称,苹果正在AI领域悄然追赶竞争对手,一方面加大了 AI相关的招聘力度,另一方面还通过并购初创公司的方式,加速AI 技术的成熟和落地,而且内部已着手开发大语言模型,内部称为AppleGPT。

同时,2200亿美金身价的世界科技首富、特斯拉CEO埃隆·马斯克(Elon Musk)成立的xAI团队也被传首批产品信息,包括与AI信息检索相关Grok、提示词工作站PromptIDE等。此外,谷歌、微软、亚马逊等科技巨头也参与AI浪潮中。

然而,包括马斯克、奥特曼等行业*,最近却每周谈论宣扬AI 具有潜在杀伤力、AI存在风险等话题。这似乎成为了一个“小圈子共识”。

11月2日,马斯克在英国AI峰会期间就表示,AI是人类*威胁之一,而且AI将会成为历史上*颠覆性的力量,并将比人类更加聪明。他相信,AI终有一天会令所有人失去工作。

“AI有能力做任何事,我不知道这会令人类觉得舒适,还是不舒适。若你想要一个魔法精灵,AI会满足你所有愿望,而且没有任何限制,也不会只有3个愿望的制约,这是好,也可以是坏,未来的挑战将会是我们如何找到生活的意义。”马斯克表示。

马斯克曾多次警告,AI比核武器(核弹)更危险。

奥特曼也多次表示,政府管控。10年内,全球将可能拥有一个强大的 AI系统(AI System),但现在,人类就需要为此做好准备。

美国政府也对AI安全问题开始监管。10月30日,美国总统拜登签署了一项针对AI的新的行政命令,针对AI安全标准方向采取有史以来最全面的行动,保护美国人的隐私,促进公平和公民权利,维护消费者和工人的利益,促进创新和竞争,以及在国外推进美国的领导地位等,管理AI潜在风险。

值得一提的是,在新的行政命令中,加强了对AI巨头公司的支持力度,如通过研究资金和其他手段支持AI研究、吸引外国人才等。

一石激起千层浪。

随后,“图灵三巨头”等AI学术专家围绕AI监管展开了激烈讨论,主要分成了两派:以杨立昆和吴恩达为代表的人认为,车还没造好就想刹什么车,AI没到监管的阶段;而包括马斯克、奥特曼、“深度学习之父”杰弗里·辛顿(Geoffrey Hinton)等人却认为,AI依然非常危险。

其中,杨立昆直言不讳的表示,如果美国持续支持科技巨头的AI研究,最终可能会导致只有少数大科技巨头能控制AI,从而不可避免地导致一场巨大的风险与灾难。

“和许多人一样,我非常支持开放式AI平台。但我也相信,未来AI是人们创造力、民主、市场力量和监管等多种力量的结合。”杨立昆在X平台写道。

谷歌大脑开创者、斯坦福大学教授吴恩达也支持杨立昆。他表示,对AI技术发展进行强监管是一个“阴谋”。

“这会摧毁创新”,吴恩达指出,“肯定有一些大型科技公司不愿意与开源AI竞争,因此他们正在制造对AI导致人类灭绝的恐惧。这一直是游说者寻求的立法武器,但对开源社区来说是非常有害的。随着许多国家监管的发展方向,我认为没有监管会比现在的情况更好。”

但与此同时,10月25日,图灵奖得主约书亚·本吉奥(Yoshua Bengio)、“深度学习之父”杰弗里·辛顿(Geoffrey Hinton)、姚期智(Andrew Yao)、张亚勤等AI行业专家也签署了一封联名信,信中继续呼吁加强对于AI技术发展的监管,认为在开发这些系统之前应采取紧急治理措施,并在AI研发中向安全和道德实践进行重大转变。

如今,这场围绕 AI安全监管的学术大佬间激烈交战仍在持续。AI当前已深入从搜索引擎、社交到金融等各个领域,因此专家们对这场AI军备竞赛、安全风险、深度造假等挑战提出了严重担忧。

而很多网友担心大佬们的关系会不会受到论战的影响。杨立昆前段时间发了一条与Yoshua Bengio、辛顿之间的合照,似乎很好地回应了这个问题。

11月3日,美国政府表示,其已成立AI安全研究所,希望通过美国商务部等机构的立法身份,制定监管AI未来的标准和规则。

监管加速

未来10年人类或将全面进入智力时代

11月1日,在英国伦敦布莱奇利园举办的首届人工智能安全峰会上,发布了《布莱奇利宣言》,宣言称AI带来巨大机遇,有潜力增强人类福祉、和平和繁荣,但同时AI也带来重大风险,而需要通过国际合作的形式解决各种风险。

会上,包括美国、中国及欧盟在内的超过25个国家和地区签署了该宣言。英国首相苏纳克表示,“这是一项具有里程碑意义的成就,世界上最强大的 AI强国都认识到‘了解AI风险’这件事的紧迫性,这有助于确保我们下一代的长远未来。作为领导人,我们有责任采取行动,采取措施保护人民,这正是我们正在做的事情。”

宣言中指出,AI将带来重大风险,包括在日常生活领域,“所有问题都至关重要,我们确认解决它们的必要性和紧迫性。”

“为了实现这一点,我们申明,为了所有人的利益,AI应该以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用。”宣言称,AI产生的许多风险本质上是国际性的,因此*通过国际合作来解决——识别共同关注的AI安全风险以及支持具有国际包容性的前沿AI 安全科学研究网络。

11月3日,在北京大学举办的“新一代人工智能前沿论坛”上,北京大学计算机学院教授,北京智源人工智能研究院院长黄铁军表示,目前这场争论问题在于,大家对AI的基本认识不同,很多搞科学思维的人不相信通用人工智能(AGI)会实现,而包括杨立昆在内的另一种技术思维认为AI发展可行。

“这是两种完全不同的思维方式,谁也说服不了谁。所以争论背后,是大家完全是用不同的立场、不同的思维方式来看这一问题。”黄铁军在演讲中称。

对于未来AI大模型技术的发展,黄铁军给出了3年、10年和20年阶段的预期。

未来3年,大模型将扩展到视觉、听觉、具身智能、行动等通用智能、规模变大、尺度变小,成为具身智能的“大脑”;普通语言升级为科学语言,人工智能解决重大科学问题。

未来10年:人类全面进入智(能)力时代,就像工业革命解放体力,就像电力革命解决能源流通,以智力为核心的科技、经济、社会生态构建完成。

未來20年:目前大模型是数据驱动的静态智能,未来是时空环境驱动的动态智能,智能载体升级为类脑的脉冲神经网络;2045年,结构仿脑、功能类脑、性能超脑,物理AGI到来。

此外,Al安全至少要同等重视,否则人类面临巨大风险。

在黄铁军看来,未来10年,整个世界的经济社会、科技的形态可能都会发生一个重大的变化,智力将成为社会运行的基本要素,就像今天的电力无处不在一样,世界就形成了。而2045年,在AI技术下,人类可以实现实时智能数据,并将迭代升级,大脑、后续决策也会发生变化。

“我认为,2045年之前,像我们人类所有的这些灵感创新能力,会在一个非有机体上出现,但如果出现,那就是一个巨大的风险,我们人类要不要做这个选项,还是说可以慢一点,这需要多多讨论。”黄铁军在演讲结尾表示。

*本文作者林志佳,由新芽NewSeed合作伙伴微信公众号:钛媒体授权发布,转载请联系原出处。如内容、图片有任何版权问题,请联系新芽NewSeed处理。