AI

OpenAI和DeepMind的员工要求更多透明度

OpenAI 和 DeepMind 员工呼吁加强对举报人的保护 — 担心报复措施增加。

Eulerpool News

现任和前任领先的人工智能公司 OpenAI 和 DeepMind 员工在公开信中指出缺乏举报人保护以及对报复的担忧。

超过12名OpenAI、谷歌DeepMind和Anthropic的现任和前任员工在周二的一封公开信中敦促,要求AI公司为员工创建安全的报告渠道,以便能够在内部和公开表达他们的担忧。签署者指出,保密协议阻碍了关于AI潜在危险的公共讨论。

“那些对人工智能系统的运作方式以及相关风险了解最多的人无法自由发言,”曾在OpenAI工作的威廉·桑德斯说道,他也是该信的签署者。

除了桑德斯之外,还有六名前OpenAI员工签署了这封信。此外,还有四名现任OpenAI员工,以及一名前DeepMind员工和一名现任DeepMind员工签名。六名签署者保持匿名。

三位顶尖的人工智能专家签署了这封信:人工智能科学家斯图尔特·拉塞尔,以及约书亚·本吉奥和杰弗里·辛顿,他们因早期的突破性研究被称为“人工智能教父”。辛顿去年离开了谷歌,以便更自由地讨论这项技术的风险。

Hinton和其他专家多年来一直在警告人工智能对人类潜在的危险。一些人工智能研究人员担心该技术可能失控,并且可能像大流行病或核战争一样危险。其他人则对担忧持较温和的态度,但仍呼吁加强对人工智能的监管。

OpenAI 在周二的一封回信中同意应有政府监管。 „我们为自己在提供最能干和最安全的人工智能系统方面的良好记录感到自豪,并相信我们应对风险的科学方法,“一位OpenAI发言人表示。 “考虑到这项技术的重要性,我们同意进行严肃辩论至关重要,并将继续与世界各地的政府、民间社会和其他社区合作。”

DeepMind和由亚马逊支持的Anthropic未在周二对评论请求作出回应。

OpenAI,2015年成立的初创公司,于2022年向公众发布了ChatGPT。这个聊天机器人成为了最火的人工智能产品之一,并帮助OpenAI成长为一家数十亿美元的公司。OpenAI的负责人和人工智能革命的众多推动者之一Sam Altman表示,他希望能安全地开发这项技术。

以下是翻译后的中文标题:

在没有全面的政府监督的情况下,周二信件的签署者表示,现任和前任员工是少数能够让公司承担责任的人之一。他们担心,人类可能会失去对自主人工智能系统的控制,这些系统反过来可能会灭绝人类。

签署者敦促公司为员工提供匿名报告渠道,不打击举报人,并且不强迫他们签署可能使其保持沉默的协议。 他们希望人工智能公司更加透明,并更加注重安全措施。

周二,OpenAI 宣布设立匿名诚信热线,并表示在采取必要的安全措施之前不会发布任何技术。

前OpenAI员工Daniel Kokotajlo也签署了这封信,他表示企业在竞相开发技术的过程中忽视了AI的风险:“我决定离开OpenAI,因为我对他们负责任行事的希望破灭了,特别是在追求人工通用智能方面,”他说。“他们和其他公司采用了‘快速行动并打破常规’的心态,而这恰恰与处理如此强大且难以理解的技术所需的方法背道而驰。”

一眼就能识别出被低估的股票

新闻