Open-Source-KI: Ein Balanceakt zwischen Transparenz und Sicherheit

Die Entwicklung offener KI-Systeme nimmt Fahrt auf, stößt jedoch auf Herausforderungen in Bezug auf Transparenz und Sicherheit.

24.8.2024, 15:44
Eulerpool News 24. Aug. 2024, 15:44

Die Entwicklung von Open-Source-Künstlicher Intelligenz (KI) hat in den letzten Monaten erheblich an Dynamik gewonnen. In einem Umfeld, in dem Unternehmen wie OpenAI und Google Milliarden in immer leistungsfähigere KI-Systeme investieren, haben offene Modelle bemerkenswerte Fortschritte gemacht. Doch trotz des vermeintlichen Erfolgs offenbart sich eine zentrale Schwäche: Viele dieser sogenannten Open-Source-Systeme sind in Wahrheit nur teilweise offen.

Ein prominentes Beispiel ist Meta’s Llama. Zwar werden die „Weights“ offengelegt, die bestimmen, wie das Modell auf Anfragen reagiert, doch die zugrundeliegenden Trainingsdaten bleiben verborgen. Dies ermöglicht es Entwicklern zwar, das Modell anzupassen, aber es fehlt die Transparenz, um das Modell von Grund auf neu zu erstellen.

Für Entwickler hat diese eingeschränkte Offenheit dennoch Vorteile. Sie können quasi-offene Modelle anpassen und auf ihre eigenen Daten trainieren, ohne sensible Informationen an Drittunternehmen weitergeben zu müssen. Doch diese Einschränkungen haben ihren Preis. Ayah Bdeir, eine Senior-Beraterin der Mozilla Foundation, betont, dass nur wirklich offene Technologien ein umfassendes Verständnis der Systeme ermöglichen, die zunehmend alle Bereiche unseres Lebens beeinflussen. Zudem könnten nur wirklich offene Systeme sicherstellen, dass Innovation und Wettbewerb nicht von einigen wenigen dominanten KI-Unternehmen erstickt werden.

In Reaktion darauf hat die Open Source Initiative, die vor über 20 Jahren die Definition für Open-Source-Software festlegte, eine nahezu finale Definition für Open-Source-KI präsentiert. Diese Definition fordert nicht nur die Veröffentlichung der „Weights“, sondern auch ausreichende Informationen über die Trainingsdaten und den zugrundeliegenden Code, um das Modell reproduzieren zu können.

Diese Bewegung führt bereits zu einer stärkeren Segmentierung in der KI-Welt. Viele Unternehmen gehen vorsichtiger mit ihrer Terminologie um, um rechtlichen Auseinandersetzungen zu entgehen. So bezeichnet Mistral sein Modell Nemo als „Open Weights“ und vermeidet bewusst den Begriff „Open Source“.

Während sich teilweise offene Systeme durchsetzen, entstehen auch vollständig offene Modelle wie das Olmo-Sprachmodell des Allen Institute for AI. Doch ob diese wirklich den gleichen Einfluss auf die KI-Welt haben werden wie Open-Source-Software auf die Technologiebranche, bleibt abzuwarten.

Für einen Durchbruch offener KI-Modelle wären zwei Dinge notwendig. Erstens müsste die Technologie ein genügend großes Bedürfnis decken, um eine kritische Masse an Nutzern und Entwicklern anzuziehen. Während Linux im Bereich Serverbetriebssysteme eine klare Alternative zu Microsoft Windows darstellte, gibt es im KI-Bereich kein vergleichbares Äquivalent. Der Markt ist fragmentierter, und viele Nutzer könnten sich mit teilweise offenen Modellen wie Llama zufrieden geben.

Zweitens müssten die Befürworter offener KI überzeugendere Argumente für deren Sicherheit vorbringen. Die Aussicht, eine so mächtige, allgemeine Technologie für jedermann zugänglich zu machen, weckt berechtigte Sorgen. Oren Etzioni, ehemaliger Leiter des Allen Institute, hält viele dieser Ängste jedoch für übertrieben. Er argumentiert, dass die Informationen, die durch KI-Modelle zugänglich gemacht werden, nicht wesentlich anders seien als das, was bereits über Google verfügbar ist.

Bis die potenziellen Risiken und Vorteile der offenen Bereitstellung von KI-Technologie gründlicher untersucht sind, werden die Bedenken jedoch bestehen bleiben.

Die besten Investoren analysieren mit Eulerpool
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Für 2 € sichern

Favoriten unserer Leser