C114通信网  |  通信人家园

人工智能
2024/3/19 16:16

中西学者共同警告:需对人工智能安全采取联合措施 以避免灾难

爱集微  张杰

西方和中国领先的人工智能(AI)科学家发出严正警告,要应对人工智能这一强大技术的风险,需要全球合作。

国际知名专家近日在北京举行会议,确定了人工智能发展的“红线”,包括制造生物武器和发动网络攻击。

在一份声明中,这些学者警告说,需要对人工智能安全采取联合措施,以阻止“在我们有生之年给人类带来灾难性甚至是生存性的风险”。人类需要进行协调,以避免前所未有的技术可能带来的灾难。

签名者包括Geoffrey Hinton和Yoshua Bengio,他们因在神经网络方面的研究而获得图灵奖,常被称为人工智能的教父;加州大学伯克利分校计算机科学教授Stuart Russell;以及中国最杰出的计算机科学家之一姚期智。

该声明是在近日于北京举行的人工智能安全国际对话之后发表的,中国相关机构官员也出席了此次会议。

学术界要求科技公司和相关部门在人工智能安全问题上开展合作,特别是通过将世界上的两个科技超级大国中国和美国聚集在一起。

最近几个月,全球领先的人工智能公司与中国的人工智能专家进行了会谈。

2023年11月,在英国的人工智能安全峰会上,包括中国在内的28个国家/地区和领先的人工智能公司达成广泛承诺,将共同努力应对先进人工智能带来的生存风险。

近日,专家们讨论了与通用人工智能(AGI,即等同于或优于人类的人工智能系统)的发展有关的威胁。

Bengio说:讨论的核心重点是任何强大的人工智能系统都不应跨越的红线,以及世界各国政府在开发和部署人工智能时应规定的红线。

这些红线与日益自主的系统有关,声明指出,任何人工智能系统都不应在未经人类明确批准和协助的情况下复制或改进自身,或采取不适当的行动增强自身的力量和影响力。

科学家们补充说,任何系统都不应大幅提高行为者设计大规模毁灭性武器、违反生物或化学武器公约的能力,或自主实施网络攻击,造成严重的经济损失或同等伤害。

给作者点赞
0 VS 0
写得不太好

免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

热门文章
    最新视频
    为您推荐

      C114简介 | 联系我们 | 网站地图 | 手机版

      Copyright©1999-2024 c114 All Rights Reserved | 沪ICP备12002291号

      C114 通信网 版权所有 举报电话:021-54451141