专家警告:人工智能或带来“灭绝风险”_签名者_萨姆·奥尔特曼_中心

参考消息网6月2日报道据路透社5月30日报道,包括开放人工智能研究中心(OpenAI)首席执行官萨姆·奥尔特曼在内的顶级人工智能企业高管与专家学者当天一起提出了“人工智能带来灭绝风险”的观点,他们敦促决策者将这种风险等同于大流行和核战争构

参考消息网6月2日报道据路透社5月30日报道,包括开放人工智能研究中心(OpenAI)首席执行官萨姆·奥尔特曼在内的顶级人工智能企业高管与专家学者当天一起提出了“人工智能带来灭绝风险”的观点,他们敦促决策者将这种风险等同于大流行和核战争构成的风险。

报道称,超过350个签名者在由非营利性的人工智能安全中心发布的一封信中写道:“降低人工智能带来的灭绝风险,应该与大流行和核战争等其他大规模风险一起纳入全球优先事项。”

除奥尔特曼外,签名者还包括人工智能企业“深层思维”公司的首席执行官,以及微软公司和谷歌公司的高管。

此外还包括杰弗里·欣顿和约舒亚·本乔——三位所谓的“人工智能教父”中的两位,因其在深度学习方面的工作获得2018年图灵奖——以及哈佛大学等全球多家高校的教授。

人工智能安全中心的一份声明点名提到元宇宙平台公司(Meta)的扬·莱坎(中文名杨立昆)——第三位人工智能教父——但称他没有在那封信上签名。

人工智能安全中心主任丹·亨德里克斯说:“我们要求Meta的许多员工签名。”Meta没有立即回应评论请求。这封信是在美国与欧盟贸易科技委员会在瑞典召开会议之际发布的。预计政界人士将在会上讨论管理人工智能的问题。

报道称,今年4月,埃隆·马斯克和一群人工智能专家及行业高管率先提到了人工智能给社会带来的潜在风险。

亨德里克斯说:“我们已经(向马斯克)发出了邀请,他有望在本周签名。”

人工智能的最新发展催生了各种工具,支持者认为这些工具可用于从医疗诊断到书写法律文书的各种应用。但这也引发了人们的担忧,担心人工智能技术可能导致侵犯隐私、传播虚假信息的行为,并导致“智能机器”为自己着想的问题。

两个月前,非营利性的生命未来研究所发布了一封类似的公开信,马斯克和另外数百人在这封信上签了名,要求紧急暂停先进的人工智能研究,称这会给人类带来风险。

生命未来研究所主席马克斯·特格马克也在最近的这封信上签了名。他说:“我们那封信主要是主张暂停(人工智能研究),这封信则主要强调(人工智能给人类带来的)灭绝风险。现在,建设性的公开对话终于可以开始了。”

人工智能先驱欣顿早些时候曾对路透社记者说,人工智能对人类的威胁可能比气候变化“更紧迫”。

上周,奥尔特曼称欧盟人工智能条例——为人工智能制定管理条例而作出的首次尝试——监管过度,并扬言要离开欧洲。在遭到政界人士的批评后,他在数天后改变了立场。在其ChatGPT(聊天生成预训练转换器)风靡全球后,奥尔特曼成了人工智能的代言人。

本文来自投稿,不代表长河网立场,转载请注明出处: http://www.changhe99.com/a/5odYZJVz67.html

(0)

相关推荐