凤凰网科技讯 《AI前哨》北京时间5月25日消息,ChatGPT的火爆俨然让OpenAI CEO萨姆·阿尔特曼(Sam Altman)成了一位大明星。现在,阿尔特曼正在全球巡回演讲,谈论人工智能(AI)的好处和适度监管的必要性。然而,一些抗议者认为,阿尔特曼的愿景是危险的。
(资料图片仅供参考)
阿尔特曼在伦敦大学学院演讲
周三,当阿尔特曼来到英国伦敦大学学院进行演讲时,排队进入拥有985个座位的地下礼堂的人从门口往外排,站满了几段楼梯,一直排到街上,然后蜿蜒穿过一个城市街区。在阳光下排队等候的人都在讨论OpenAI以及他们使用ChatGPT的经历。
在礼堂内,阿尔特曼受到了摇滚明星般的接待。演讲结束后,他被仰慕者团团围住,让他摆出自拍的姿势,并就创业公司建造“护城河”的最佳方式征求意见。“这正常吗?”一位难以置信的记者站在拥挤的人群里向一位OpenAI新闻人处理人员问道,回答是:“我们这次旅行所到之处几乎都是这样。”
阿尔特曼备受追捧
在伦敦,阿尔特曼重复着熟悉的观点,他指出人们担心AI的影响是正确的,但在他看来,AI的潜在好处要大得多。他再次对潜在监管表示欢迎,但仅限于正确的监管。他说,他希望看到“介于传统欧洲方法和传统美国方法之间的东西”。也就是说,有一些监管,但不要太多。他强调,太多的规定可能会损害小公司和开源运动。
“另一方面,”他说,“我认为大多数人都会同意,如果有人真的攻克了难关,并建立了一个超级智能——不管你想怎么定义它——那么出现一些全球规则是合适的……我想确保我们至少像对待核材料一样认真对待这个问题,因为超大规模的系统可以产生超级智能。”
遭到抗议
但是与此同时,礼堂外,六个举着标语的年轻人呼吁OpenAI放弃开发通用人工智能(AGI,达到人类大脑同等智慧)的努力。一名抗议者拿着扩音器指责阿尔特曼有一种弥赛亚情结,为了自我而冒着毁灭人类的风险。弥赛亚情结也叫救世主情结,通过拯救他人使自己获救,通过扮演一种救世主的角色来体会到自己的价值。
抗议者要求停止开发AGI
抗议者呼吁,OpenAI和像它这样的公司需要停止开发先进的AI系统,以免它们有机会伤害人类。
“听着,也许他在诈骗。我真心希望他是这样,”抗议者之一、牛津大学研究太阳能(000591)地质工程和生存风险的学生吉迪恩·富特曼(Gideon Futerman)这样评价阿尔特曼,“但如果是这样的话,他是在炒作有足够已知危害的系统。不管怎么样,我们或许应该阻止他们。如果他是对的,他正在构建系统是通用人工智能,那么危险会大得多。”
OpenAI的批评者认为,这种关于监管超级智能(也被称为AGI)的言论是花言巧语,是阿尔特曼采用的一种方法,旨在转移人们对AI系统当前危害的注意力,让立法者和公众分心于科幻场景。
AI Now研究所的董事总经理萨拉·迈尔斯·韦斯特(Sarah Myers West)上周表示,像阿尔特曼这样的人“把问责制放在了未来”。韦斯特认为,相反,人们应该谈论AI系统目前造成的已知威胁,从带有种族偏见的面部识别,到错误信息的传播。
要求OpenAI停止开发AGI的传单
阿尔特曼的言论没有说服抗议者。伦敦大学学院政治学和伦理学硕士研究生阿利斯泰尔·斯图尔特(Alistair Stewart)表示,他希望看到“对先进系统的某种暂停或中止”,这与AI研究人员和埃隆·马斯克(Elon Musk)等知名科技人物最近签署的一封公开信所倡导的相同。斯图尔特表示,他并不一定认为阿尔特曼关于AI驱动的繁荣未来的愿景是错误的,但“不确定性太多”,不能听凭运气。
斯图尔特说,阿尔特曼在演讲完后出来和抗议者交谈,但这没能改变他的想法。他说,他们聊了大约一分钟,讨论了OpenAI的安全方法,包括同时开发AI系统及其护栏的能力。
“我聊完后比以前更担心了,”斯图尔特说,“我不知道他掌握了什么信息,让他认为这行得通。”凤凰网科技《AI前哨》对此将持续关注。(作者/箫雨)
Copyright @ 2008-2015 www.news9.com.cn All Rights Reserved 中国投资网 版权所有 关于我们
浙ICP备2022016517号-5
免责声明:本文仅代表作者观点,网站刊登本文出于传递更多信息的目的,并不意味赞同其观点或证实其描述。如因文章内容、版权请联系qq邮箱:514 676 113@qq.com