AI

开源人工智能:在透明度与安全性之间的平衡

开放式人工智能系统的发展正在加速,但在透明性和安全性方面面临挑战。

Eulerpool News

开源人工智能 (AI) 的发展在过去几个月里显著加快。在像 OpenAI 和谷歌这样的公司投入数十亿资金开发更强大的人工智能系统时,开放模型也取得了显著进展。然而,尽管看似成功,这些所谓的开源系统却暴露出一个核心弱点:许多系统实际上只是部分开放。

一个突出的例子是Meta的Llama。虽然其对请求做出反应所依赖的“权重”已公开,但其基础训练数据仍然隐藏。这使得开发者可以调整模型,但缺乏从头创建模型的透明度。

尽管这种有限的开放性对开发者来说仍有其优势。开发者可以根据自己的数据调整准开放模型,而无需将敏感信息泄露给第三方公司。然而,这些限制也有其代价。Mozilla基金会的高级顾问Ayah Bdeir强调,只有真正开放的技术才能全面理解那些日益影响我们生活各个领域的系统。此外,只有真正开放的系统才能确保创新和竞争不会被少数几家主导的AI公司扼杀。

对此,开放源代码促进会(Open Source Initiative)在设定开放源代码软件定义20多年后,提出了一个几乎最终版的开放源代码人工智能定义。该定义要求不仅公开“权重”,还要提供关于训练数据和底层代码的足够信息,以便能够复现模型。

这场运动已经导致了人工智能世界中更强的分化。许多公司在使用术语时更加谨慎,以避免法律纠纷。例如,Mistral 将其模型 Nemo 称为“开放权重”,并有意避免使用“开源”一词。

当部分开放系统普及时,完全开放的模型也在出现,例如艾伦人工智能研究所的Olmo语言模型。但这些模型是否真的会像开源软件对科技行业那样影响人工智能世界,还有待观察。

为了实现开源AI模型的突破,需要两件事。

第二,开放式人工智能的支持者需要提出更有说服力的安全性论据。让如此强大的通用技术对所有人开放的前景引发了合理的担忧。然而,Allen研究所的前负责人Oren Etzioni认为,很多这种恐惧都是夸大的。他认为,通过人工智能模型获得的信息与已经通过Google可获取的信息并没有本质上的不同。

在对开放提供人工智能技术的潜在风险和益处进行更深入的研究之前,这些担忧将持续存在。

一眼就能识别出被低估的股票。
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

订阅费为2欧元/月

新闻