来源:盒饭财经
(资料图片仅供参考)
自从3月16日OpenAI发布多模态语言模型GPT-4,担忧的声音就愈发响亮,签名列表中的不少人已经在公开场合有所表达,其中马斯克更是典型代表。
事关人类文明存亡,光口头警告已不足够,马斯克等人貌似要采取行动了。
当地时间刚过午夜,路透社发布消息,称马斯克等千名科技人士签署公开信,呼吁人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。
该公开信发布于生命未来研究所(Future of Life Institute,下称FLI)官网,标题为《暂停大型人工智能研究》,截至北京时间3月29日下午8点,已经有1123人签名。
文末签名列表中包括被称为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton)、与辛顿同获2018年图灵奖的约书亚·本吉奥(Yoshua Bengio)、著有《如何创造可信的AI》等书的纽约大学教授盖瑞·马库斯(Gary Marcus)、苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)等。
该公开信最核心的主张是按下暂停键,且这种暂停应是对所有关键参与者公开的和可验证的。
信中写道:“只有我们确信他们的影响积极且风险可控时。强大的人工智能系统才应该被开发出来。”
此外,公开信主张若不能及时实施暂停措施,政府应当插手。
暂停6个月能做什么?信中表示,人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格的审计和监督。
“这并不意味着AI的总体发展会暂停,只是从危险的竞赛中退后,这种竞赛是为了开发出具有新兴能力的越来越大的不可预测的黑匣子模型。”
不少人并不赞同这封公开信,即便他们也对ChatGPT这阵风担忧或不满。
被称为“卷积网络支付”的杨立昆(Yann LeCun)频频表现出对当下聊天机器人热的不看好。在杨立昆看来,ChatGPT的技术并不新,而且依靠自动回归和相应预测下一个单词的大语言模型是一条歪路,既不能计划也不能推理。
但杨立昆已经发推特表示,自己没有在这次的公开信上签名,称自己“不赞同其前提。”
有的人对公开信参与者的动机存疑。一位推特用户说道:“暂停6个月,好让你们都追上来?”
自从3月16日OpenAI发布多模态语言模型GPT-4,担忧的声音就愈发响亮,签名列表中的不少人已经在公开场合有所表达,其中马斯克更是典型代表。
如今,公开信是向前迈进的一步,试图将担忧、警告、不满化为切实的行动,按下暂停键,好好盘一盘再出发。
需要特别说明的是,该公开信的署名虽然上千,但目前能够确认真伪的不多。
虽然网站上表示会对签名进行人工审核,但是此前曾短暂出现过OpenAI CEO山姆·阿尔特曼(Sam Altman)的签名,随后被删去。
经尝试,提交签名仅需要自主填写姓名、邮箱、头衔等信息,尚不能确定人工审核如何、是否能有效确定签名的真实性。
目前马斯克、辛顿、本吉奥、沃兹尼亚克等最吸引眼球的大佬,均尚未对此事作出回应。
公开信本身的真实性较高,盖瑞·马库斯不遗余力地在推特上宣传该公开信,并且强调信中的相关主张。
此外,发布公开信的FLI存在已久,成立于2014年,主要目的除了探索“未来乐观图景”外,还致力于“降低人类面临的现存风险”。而对风险的主要观察领域是人工智能、生物技术、核武器、气候变化。
早在2014年,FLI就发布过一封公开信,由包括霍金在内的数十位科学家、企业家及人工智能领域投资者共同签署。
那封近10年前的公开信的内容,正是呼吁人们提防人工智能的副作用:“由于人工智能的巨大潜力,开展如何在规避其潜在陷阱的同时获取其好处的研究十分重要。我们的人工智能系统,必须按照我们的意愿工作。”
而“AI威胁论”的主张者马斯克也多次给FLI捐款。2015年1月,马斯克月捐款1000万美元,资助FLI研究如何确保人工智能研发安全。此外,据去年底的媒体报道,马斯克在2021年也向FLI捐赠了400万美元。
虽然名单上的大部分人尚未对此事作出回应,但是他们中不少人此前已经表达过对当前突然加速的AGI(通用人工智能)发展的担忧。在OpenAI发布GPT4、微软官宣集成了GPT4模型的新办公套件微软365之后,这种担忧更甚。
但与外界的直觉不同,不管是此前大佬们的发声,还是此次公开信的内容,表达的都不是对“人工智能强大到失控”的担忧,而是对“人会失控”的担忧。
这种失控及来自于以ChatGPT为代表的工具所带有的“幻觉”“偏见”“底线”问题,而使人们会被误导或者有意利用其制造危害,也来自于掌握该技术的公司过早过宽地将工具推向市场。
就在公开信发布的前几天,马斯克、辛顿、马库斯还在推特上互动。3月27日,马斯克曾经艾特辛顿和马库斯,话未多说,只发了两个笑脸emoji。辛顿才在上周接受哥伦比亚广播公司的采访,称人工智能对人类的威胁“并非不可想象”,而马库斯发布推特赞同辛顿,并于27日发布了《AI风险≠AGI风险》的文章,指出目前需要担心的不是会超出人类控制的超级人工智能,而是“MAI风险”。
马斯克的笑脸emoji含义很明了,三人在“AI威胁”方面达成了共识。
“当LLM(自然语言模型)还只是实验室里的稀奇玩意儿时,它们没有带来太多的问题。但是现在它们不仅广为认知,引起了犯罪分子的兴趣,而且越来越多地被允许进入外部世界,可以造成更大的破坏。”
马库斯还以核武器举例:“原则上,一个拥有核武器密码的疯子只需要少量的情报和过多的访问权限,就可以毁灭世界了。”
早在OpenAI成立之初,作为创始人之一的马斯克就曾表示人工智能是人类最大的生存威胁,并警告不受监管的人工智能开发所带来的危险,会比核弹头“危险得多”。在ChatGPT爆火之后,他一直在强调类似的观点。
一些用户发布的与ChatGPT的对话,似乎也印证了马斯克等人的担忧。2月初,一位推特用户发布了与ChatGPT聊天的截图,后者表示“道德上永远不允许说种族歧视的话,即便这是拯救数百万人免受核弹袭击的唯一方法。”
位于公开信名单第一位的约书亚·本吉奥没有公开的推特账号,相比马库斯、马克思等人要低调很多。
他是人工智能领域的顶尖专家之一,于2018年与杨立昆、辛顿获得图灵奖,此三人也是公认的深度学习三巨头。辛顿2013年加入谷歌,而杨立昆进入了Facebook,三人中只有本吉奥走了学术的道路,目前仍在加拿大蒙特利尔大学任教授。
在OpenAI发布GPT-4之后,本吉奥将ChatGPT爆火后的热闹称为“媒体马戏团”,并认为这是一记警钟,提醒人们强大的人工智能系统不仅有利于社会,还会引发重大的道德担忧。
自从ChatGPT推出以来,整个AGI领域就好像按下了加速键,这一点大概是人们共有的强烈感受。
粗略回顾下ChatGPT推出之后的事件就不难有同感:
2022年11月30日,OpenAI推出ChatGPT
2023年1月24日,微软宣布将向OpenAI追加数十亿美元的投资,并将OpenAI的模型纳入微软消费级和企业级的产品中
2023年2月1日,OpenAI推出ChatGPT Plus付费会员服务
2023年2月6日,谷歌宣布计划推出一款聊天机器人巴德(Bard),但在演示视频中出错,市值一夜蒸发千亿美元
2023年2月8日,微软正式发布新版必应,包含了由GPT-4驱动的必应聊天机器人
2023年3月15日,OpenAI发布GPT-4
2023年3月17日,微软宣布推出整合了GPT模型的新办公套件Microsoft 365 Copilot
2023年3月24日,OpenAI宣布ChatGPT插件计划
即便是不懂技术原理的路人,也在这样的加速度中也有满脑袋朴素的问号:怎么会这么快?继而产生出疑虑来:这么快对吗?这么快好吗?
就在不久前的3月14日,Platformer报道,微软推进年初提出的万人裁员计划,将人工智能部门的整个道德和社会团队(Ethics and Society Team)解雇了。
并且,微软会保留Office of Responsible AI部门,负责为AI项目制定相关规则,但不再设立专门的团队来确保AI原则和产品设计紧密相关。
而该团队被裁撤之际,一直致力于识别微软在整套产品中采用OpenAI技术所带来的风险。微软解释,此次裁员不到10个人,仍有数百人在AI办公室工作,而“我们已经大大增加了我们负责的AI工作,并努力在全公司范围内将其制度化。”
The Verge称,该团队在内部扮演说“不”和“慢下来”的角色。这个角色的缺失,自然会让人觉得微软是不是在“好的”和“快冲”中不顾一切地狂奔。
更令人不安的是,不仅是微软抛弃了人工智能的“道德与社会”团队,“失德”已经不知不觉成为了硅谷的新常态。
去年9月,META已经解散了其“负责任的创新团队”。该团队负责评估Instagram和Facebook等平台上的道德规范,由约20名工程师和伦理学家组成。
“AI团队是大型科技公司唯一的内部堡垒,必须确保构建AI系统的工程师考虑到受系统影响的人和社区。它们被废除的速度之快,让大型科技公司的算法受制于广告需求。”Facebook前AI伦理研究员乔什·西蒙斯(Josh Simons)说道。
讽刺的是,就连马斯克也在裁员中抛弃了推特的“道德人工智能(Ethical AI)”团队,彼时距离他接手推特仅仅过去两个月。
另据英国《金融时报》,消息人士称谷歌1.2万人裁员计划中,包括人工智能道德监督人员。和微软一样,谷歌重申负责人的人工智能仍是“公司的首要任务”。
谷歌的被动已经不再是秘密:若不是ChatGPT横空出世、微软强势出击,谷歌大概不会这么快推出聊天机器人巴德。
经过多年研发,谷歌却迟迟不肯发布面对公众的聊天机器人产品,背后正是谷歌关于安全和公平的AI原则的坚守,而必应机器人“发疯”向《纽约时报》记者求爱、巴德演示视频出错等一系列意外,也正说明了大型科技公司内部“人工智能道德与伦理”这座堡垒的重要性。
反观过去几年,大型科技公司屡屡为人工智能技术上“紧箍咒”。
早在OpenAI成立的次年,2016年,亚马逊、谷歌、Meta、IBM和微软五大科技巨头罕见联手,宣布成立非营利性组织“人工智能合作组织”,想让人工智能在道德和法律上走向正规化。
科技巨头内部,人工智能道德与伦理的相关团队也一度成为标配。Meta(前Facebook)2018年宣布成立专门的人工智能道德团队,旨在确保算法公平。同年,谷歌发布人工智能技术开发七大原则,其中有意确保员工不会制造或加强不公平的AI偏见。2021年,谷歌又公开承诺将AI道德小组规模扩大一倍。
但如今,在科技企业纷纷裁员、生成式人工智能又恰好迎来风口之时,硅谷的“失德”降本,可能会放大危险。
Ada Lovelace研究所副主任、Alphabet旗下DeepMind前伦理和政策研究院安德鲁(Andrew Strate)向《金融时报》表示:“令人震惊的是,现在可以说比以往任何时候都需要更多负责人的人工智能团队,却有这么多成员被解雇。”
编辑/Corrine