AI

OpenAI 推出具备先进问题解决能力的新 o1 模型,并警告滥用风险

OpenAI 在 o1 模型方面取得了巨大的技术进步,但同时也警告滥用风险增加,特别是对生化武器研发的担忧。

Eulerpool News

OpenAI在星期四推出了其最新的o1模型,这些模型在逻辑思维、解决问题和回答科学问题方面提供了重大进展。这些模型被视为实现通用人工智能(AGI)——能够达到人类思维能力的机器——开发道路上的关键一步。

在伴随的系统图中,该图描述了人工智能的工作方式,OpenAI 承认其新模型也显著增加了技术被滥用的风险,尤其是在制造生物武器方面。公司首次对其模型给予了关于化学、生物、放射和核(CBRN)武器的“中等风险分类”。这意味着该技术显著提高了专家开发生物武器的能力。

先进的人工智能软件能够逐步进行逻辑推理,专家认为其滥用风险增加。 世界顶尖的人工智能研究员之一Yoshua Bengio强调了制定法律法规的紧迫性,以减少这些风险。 他提到, 加利福尼亚州的一个法案将要求企业采取安全措施,以防止人工智能被用于开发生物武器。 “随着人工智能向通用人工智能(AGI)迈进,如果没有适当的防护措施,风险将会越来越大,”Bengio警告道。

科技公司如谷歌、Meta和Anthropic目前也在致力于开发先进的AI系统。这些AI代理能够帮助人们完成任务,同时为面临高昂AI开发成本的公司提供潜在的盈利机会。

Mira Murati,OpenAI 首席技术官向《金融时报》表示,公司在推出 o1 模型时格外谨慎,因为这些模型具有广泛的能力。然而,这些模型将通过 ChatGPT 向付费订阅用户和通过 API 向程序员开放。 Murati 补充道,这些模型已经经过了广泛的安全测试,在安全性方面明显优于以前的版本。

一眼就能识别出被低估的股票。
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

订阅费为2欧元/月

新闻