AI

对预防先进人工智能的权利提出的要求

我很害怕。不害怕才是疯了。”一位前员工对Vox说。

Eulerpool News

以下是翻译成中文的标题:

"领先的AI公司的员工于星期二发布了一项不寻常的提议,要求有权警告先进人工智能的风险。包括来自OpenAI和Google DeepMind的现任和前任员工在内的13位签署者,强调了采取保护措施以防止AI技术潜在危害的必要性。

“我很害怕。不害怕才是疯了,”Daniel Kokotajlo 说。他在对 OpenAI 领导层失去信任后于四月份离开了公司。近期多名注重安全的员工因类似的原因离职,这加剧了人们对 OpenAI 没有足够重视技术风险的担忧。

受到杰弗里·辛顿 (Geoffrey Hinton)、约书亚·本吉奥 (Yoshua Bengio) 和斯图尔特·罗素 (Stuart Russell) 等知名专家支持的提议,旨在通过提高其活动的透明度来改变对人工智能公司的激励机制。签署者要求在不必担心受到报复的情况下,能够向公司董事会、监管机构和独立专家组织表达他们的担忧。

一家OpenAI的发言人强调说,公司已经有一些平台,如领导办公时间、与董事会的问答会议以及匿名诚信热线,让员工可以表达他们的想法。

„普通的告密者保护措施不足,因为它们侧重于非法活动,而我们担忧的许多风险尚未受到监管”,签署人在提案中写道。他们聘请了曾经为Facebook告密者Frances Haugen提供咨询的公益律师Lawrence Lessig。

另一项签署者的要求是终止阻止内部人士表达与风险相关担忧的非诽谤协议。前OpenAI员工经常觉得被这些协议封口。

Jan Leike,OpenAI 对齐团队的前负责人,表示“安全文化和流程不得不让位于光鲜亮丽的产品”。Carroll Wainwright 上周因类似原因离职,他也对 OpenAI 的激励机制表示担忧。

问题仍然是如何改变人工智能行业的基础激励结构。OpenAI 最初是一家非营利组织,但不得不成立一个盈利部门并与微软合作,以资助所需的计算能力。由前 OpenAI 员工创立的竞争公司 Anthropic 也最终不得不与亚马逊合作。

“去年11月的事件表明,董事会没有达到预期的决断力,”温赖特说道。因此,签署者认为,单靠个体的公司治理结构不足以确保有效的监督。

除了监管之外,签署者认为员工警告公众的权利也至关重要。内部人士应能够公开讨论他们所看到的风险,以迫使公司认真对待这些风险。不管他们担心哪种类型的人工智能风险,这对所有人都有好处。

一眼就能识别出被低估的股票。

订阅费为2欧元/月

新闻