C114通信网  |  通信人家园

人工智能
2023/5/25 11:15

ChatGPT捧红OpenAI创始人Sam Altman:追随者仰慕,抗议者怒斥其诈骗

凤凰科技  箫雨

北京时间 5 月 25 日消息,ChatGPT 的火爆俨然让 OpenAI CEO 萨姆 阿尔特曼 (Sam Altman) 成了一位大明星。现在,阿尔特曼正在全球巡回演讲,谈论人工智能 (AI) 的好处和适度监管的必要性。然而,一些抗议者认为,阿尔特曼的愿景是危险的。

周三,当阿尔特曼来到英国伦敦大学学院进行演讲时,排队进入拥有 985 个座位的地下礼堂的人从门口往外排,站满了几段楼梯,一直排到街上,然后蜿蜒穿过一个城市街区。在阳光下排队等候的人都在讨论 OpenAI 以及他们使用 ChatGPT 的经历。

在礼堂内,阿尔特曼受到了摇滚明星般的接待。演讲结束后,他被仰慕者团团围住,让他摆出自拍的姿势,并就创业公司建造“护城河”的最佳方式征求意见。“这正常吗?”一位难以置信的记者站在拥挤的人群里向一位 OpenAI 新闻人处理人员问道,回答是:“我们这次旅行所到之处几乎都是这样。”

在伦敦,阿尔特曼重复着熟悉的观点,他指出人们担心 AI 的影响是正确的,但在他看来,AI 的潜在好处要大得多。他再次对潜在监管表示欢迎,但仅限于正确的监管。他说,他希望看到“介于传统欧洲方法和传统美国方法之间的东西”。也就是说,有一些监管,但不要太多。他强调,太多的规定可能会损害小公司和开源运动。

“另一方面,”他说,“我认为大多数人都会同意,如果有人真的攻克了难关,并建立了一个超级智能 —— 不管你想怎么定义它 —— 那么出现一些全球规则是合适的…… 我想确保我们至少像对待核材料一样认真对待这个问题,因为超大规模的系统可以产生超级智能。”

遭到抗议

但是与此同时,礼堂外,六个举着标语的年轻人呼吁 OpenAI 放弃开发通用人工智能 (AGI,达到人类大脑同等智慧) 的努力。一名抗议者拿着扩音器指责阿尔特曼有一种弥赛亚情结,为了自我而冒着毁灭人类的风险。弥赛亚情结也叫救世主情结,通过拯救他人使自己获救,通过扮演一种救世主的角色来体会到自己的价值。

抗议者呼吁,OpenAI 和像它这样的公司需要停止开发先进的 AI 系统,以免它们有机会伤害人类。

“听着,也许他在诈骗。我真心希望他是这样,”抗议者之一、牛津大学研究太阳能地质工程和生存风险的学生吉迪恩 富特曼 (Gideon Futerman) 这样评价阿尔特曼,“但如果是这样的话,他是在炒作有足够已知危害的系统。不管怎么样,我们或许应该阻止他们。如果他是对的,他正在构建系统是通用人工智能,那么危险会大得多。”

OpenAI 的批评者认为,这种关于监管超级智能 (也被称为 AGI) 的言论是花言巧语,是阿尔特曼采用的一种方法,旨在转移人们对 AI 系统当前危害的注意力,让立法者和公众分心于科幻场景。

AI Now 研究所的董事总经理萨拉 迈尔斯 韦斯特 (Sarah Myers West) 上周表示,像阿尔特曼这样的人“把问责制放在了未来”。韦斯特认为,相反,人们应该谈论 AI 系统目前造成的已知威胁,从带有种族偏见的面部识别,到错误信息的传播。

阿尔特曼的言论没有说服抗议者。伦敦大学学院政治学和伦理学硕士研究生阿利斯泰尔 斯图尔特 (Alistair Stewart) 表示,他希望看到“对先进系统的某种暂停或中止”,这与 AI 研究人员和埃隆 马斯克 (Elon Musk) 等知名科技人物最近签署的一封公开信所倡导的相同。斯图尔特表示,他并不一定认为阿尔特曼关于 AI 驱动的繁荣未来的愿景是错误的,但“不确定性太多”,不能听凭运气。

斯图尔特说,阿尔特曼在演讲完后出来和抗议者交谈,但这没能改变他的想法。他说,他们聊了大约一分钟,讨论了 OpenAI 的安全方法,包括同时开发 AI 系统及其护栏的能力。

“我聊完后比以前更担心了,”斯图尔特说,“我不知道他掌握了什么信息,让他认为这行得通。”凤凰网科技《AI 前哨》对此将持续关注。

给作者点赞
0 VS 0
写得不太好

免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

热门文章
    最新视频
    为您推荐

      C114简介 | 联系我们 | 网站地图 | 手机版

      Copyright©1999-2023 c114 All Rights Reserved | 沪ICP备12002291号

      C114 通信网 版权所有 举报电话:021-54451141