OpenAI首席执行官认为,是马斯克让他意识到深度科技投资的重要性
OpenAI联合创始人兼首席执行官山姆·阿尔特曼即将在伦敦大学学院(University College London)的地下礼堂发表演讲,礼堂共有985个座位,排队的人从门口往外排,排满了几阶楼梯,一直排到街上,然后蜿蜒穿过一个城市街区。再往前走,就会看到六个举着标语的年轻人,他们呼吁OpenAI放弃开发通用人工智能的努力——在大多数认知相关任务中,人工智能系统可以达到人类大脑同等智慧。一名抗议者拿着扩音器指责阿尔特曼的弥赛亚情结(想要通过拯救他人来实现自救,通过扮演救世主的角色来体现自己的价值),称他为了实现自我价值而冒着毁灭人类的风险。
指责阿尔特曼有弥赛亚情结可能有点过火了。但在礼堂里,阿尔特曼受到了摇滚明星般的待遇。演讲结束后,他被仰慕者团团围住,让他摆姿势进行自拍合影,并就创业公司如何更好地创建“护城河”(结构性竞争优势)征求他的意见。“这正常吗?”当我们站在阿尔特曼周围拥挤的人群中时,一位难以置信的记者向OpenAI的新闻发言人提问。这位发言人表示:“我们这次行程所到之处几乎都是如此。”
阿尔特曼目前正在进行OpenAI“世界巡回演讲”——从里约和拉各斯到柏林和东京等城市——与企业家、开发者和学生们讨论OpenAI的技术以及人工智能在更广泛领域的潜在影响。阿尔特曼以前进行过这样的世界巡回演讲。但今年,随着人工智能聊天机器人ChatGPT的病毒式流行,它已成为史上增速最快的面向消费者的软件产品。因此,进行“世界巡回演讲”有一种绕场一周庆祝胜利的感觉。阿尔特曼还将与政府主要领导人会面。在伦敦大学学院的演讲结束后,他将与英国首相里希·苏纳克共进晚餐,并将在布鲁塞尔与欧盟官员会面。
我们从阿尔特曼的演讲中了解到什么?除了其他方面外,阿尔特曼认为埃隆·马斯克让他意识到深度科技投资的重要性,他还认为高级人工智能将减少全球不平等,他还将教育工作者对OpenAI的ChatGPT感到恐惧与前几代人对计算器的出现感到绝望相提并论,但他对移民火星不感兴趣。
阿尔特曼在美国参议院作证时呼吁政府对人工智能进行监管,最近还与人合写了一篇博文,呼吁建立一个类似于国际原子能机构(International Atomic Energy Agency)这样的组织,来监管全球高级人工智能系统的发展。他表示,监管机构应该在美国监管新技术方面的传统自由放任方式和欧洲采取的积极监管立场之间取得平衡。他说,他希望看到人工智能的开源开发蓬勃发展。他说:“有人呼吁停止开源运动,我认为这将是真正的耻辱。”但“如果有人破解了代码,并研发出超级人工智能(不管你希望如何定义它)。”他警告说,“可能制定全球性规则是合乎情理的。”
阿尔特曼说:“对于可能研发出超级人工智能的最大规模的系统,我们至少应该像对待核材料一样认真对待它。”
这位OpenAI首席执行官还警告说,在他自己公司的机器人ChatGPT和文本生成图像工具DALL-E等技术的助力下,可以轻易生成大量错误信息。比起生成式人工智能被用来扩大现有的虚假信息活动规模,阿尔特曼更担心的是,这项技术有可能生成量身定制的、有针对性的虚假信息。他指出,OpenAI和其他开发专有人工智能模型的公司可以建立更好的护栏来防止此类活动,但他说,开源开发可能会破坏这种努力,因为开源开发允许用户修改软件并移除护栏。尽管监管“可能会有所帮助”,但阿尔特曼表示,人们需要成为批判性的信息消费者,并将其与图像处理软件Adobe Photoshop首次发布时,人们对数字编辑照片感到担忧的时期进行比较。他说:“同样的事情也会发生在这些新技术上。但我认为,我们越早让人们了解这一点越好,因为这样做能够引起更普遍的情感共鸣。”
阿尔特曼对人工智能的看法比以往更为乐观。虽然有些人认为,生成式人工智能系统会导致普通工人工资下降或造成大规模失业,进而加剧全球不平等,但阿尔特曼表示,他认为事实恰恰相反。他指出,人工智能有助于实现全球经济增长,并提高生产力,从而帮助人们摆脱贫困,并创造新机会。他说:“我对这项技术感到非常兴奋,它能够恢复过去几十年失去的生产力,并实现超越追赶。”他提出了基本观点:全球两大“限制因素”是智力成本和能源成本。他表示,如果这两者的成本能够大幅降低,那么它们对穷人的帮助应该比对富人的帮助更大。“人工智能技术将改变整个世界。”他说。
阿尔特曼还提到,他认为人工智能存在不同版本,包括超级人工智能。一些人,包括阿尔特曼过去曾说过,尽管这种未来技术可能对人类构成严重威胁,但它实际上是可以被控制的。他说:“我过去对超级人工智能未来走向的看法是,我们将构建一个极其强大的系统。”他指出,这样的系统本质上是非常危险的。“我现在认为,我们已经找到了发展路径:可以创建越来越强大的工具,并且数十亿、数万亿的副本能够在世界各地广泛使用。它们可以帮助个人提高效率,从而能够完成更多任务,个人的产出可能显著增加。超级人工智能的作用不仅仅体现在支持最大的单一神经网络方面,还体现在我们正在发现的所有新科学和我们正在创造的一切新事物中。
当被问及从不同导师那里学到了什么时,阿尔特曼提到了埃隆·马斯克。他说:“当然,我从埃隆身上学到什么是能够完成的,以及你不需要接受这样的事实:你不能忽视艰苦研发和硬技术的重要性,这是很有价值的。”
阿尔特曼还回答了一个问题,即他是否认为人工智能可以帮助人类在火星上定居。他说:“听着,我不想去火星生活,这听起来很可怕,但我对其他人想去火星生活感到高兴。”阿尔特曼建议应该首先把机器人送到火星上,帮助改造火星,使它更适合人类居住。
在礼堂外,抗议者继续高呼反对这位OpenAI首席执行官。但在与会者停下来询问他们的抗议活动时,他们也停下来与好奇的与会者进行认真交谈。
“我们努力做的是提高人们的认识,即人工智能确实对人类构成了威胁和风险,包括就业和经济、偏见、错误信息、社会两极分化和僵化,但也造成稍长期,却非真正长期的,更攸关人类存亡的威胁。”帮助组织抗议活动的、时年27岁的伦敦大学学院政治学和伦理学研究生阿利斯泰尔·斯图尔特说。
斯图尔特引用了最近对人工智能专家的一项调查,该调查发现,48%的专家认为,高级人工智能系统导致人类灭绝或带来其他严重威胁的可能性为10%或更高。他说,他和其他抗议奥尔特曼出席此类活动的人呼吁暂停开发比OpenAI的GPT-4大型语言模型更强大的人工智能系统,直到研究人员“解决对齐问题”——这一术语意味着找到一种方法来防止未来的超级人工智能系统采取可能对人类文明造成损害的行动。
这一暂停开发的呼吁呼应了包括马斯克和一些知名人工智能研究人员和企业家在内的数千名公开信的签名者所发出的呼吁,该信由生命未来研究所(Future of Life Institute)于3月底发表。
斯图尔特说,他所在的组织希望提高公众对人工智能所带来的威胁的认识,这样他们就可以向政治家施压,要求他们采取行动,对该技术进行监管。本周早些时候,一个自称“暂停人工智能”(Pause AI)的组织的抗议者也开始在谷歌DeepMind(另一个高级人工智能研究实验室)的伦敦办公室前进行抗议。斯图尔特说,他所在的组织并不隶属于“暂停人工智能”,尽管这两个组织有许多相同的宗旨和目标。
版权声明:
凡文章来源为"华经财富网"的稿件,均为华经财富网独家版权所有,未经许可不得转载或镜像;授权转载必须注明来源为"华经财富网",并保留"华经财富网"的电头。