AI
OpenAI präsentiert neue o1-Modelle mit fortschrittlichen Problemlösungsfähigkeiten und warnt vor Missbrauchsrisiken
OpenAI hat mit den o1-Modellen einen großen technologischen Fortschritt erzielt, warnt jedoch gleichzeitig vor einem erhöhten Missbrauchsrisiko, insbesondere im Hinblick auf die Entwicklung von Biowaffen.
OpenAI hat am Donnerstag seine neuesten o1-Modelle vorgestellt, die bedeutende Fortschritte im Bereich des logischen Denkens, der Problemlösung und der Beantwortung wissenschaftlicher Fragen bieten. Die Modelle werden als entscheidender Schritt auf dem Weg zur Entwicklung einer künstlichen allgemeinen Intelligenz (AGI) angesehen – Maschinen, die eine menschliche Denkfähigkeit erreichen.
In der begleitenden Systemkarte, die die Funktionsweise der KI beschreibt, erkennt OpenAI jedoch an, dass die neuen Modelle auch das Risiko für den Missbrauch der Technologie, insbesondere im Zusammenhang mit der Herstellung biologischer Waffen, „signifikant erhöht“ haben. Erstmals vergab das Unternehmen für seine Modelle eine „mittlere Risikoeinstufung“ in Bezug auf chemische, biologische, radiologische und nukleare (CBRN) Waffen. Dies bedeutet, dass die Technologie die Fähigkeiten von Experten zur Entwicklung von Biowaffen erheblich verbessert hat.
Fortschrittliche KI-Software, die in der Lage ist, schrittweise logische Argumentationen durchzuführen, birgt nach Ansicht von Experten ein erhöhtes Missbrauchspotenzial. Yoshua Bengio, einer der weltweit führenden KI-Forscher, betonte die Dringlichkeit gesetzlicher Regelungen, um diese Risiken zu minimieren. Er verwies dabei auf einen Gesetzentwurf in Kalifornien, der von Unternehmen verlangen würde, Sicherheitsmaßnahmen zu ergreifen, um den Einsatz von KI zur Entwicklung von Biowaffen zu verhindern. „Je mehr KI in Richtung AGI voranschreitet, desto größer werden die Risiken, wenn keine angemessenen Schutzmaßnahmen vorhanden sind“, warnte Bengio.
Technologieunternehmen wie Google, Meta und Anthropic arbeiten derzeit ebenfalls daran, fortschrittliche KI-Systeme zu entwickeln. Diese KI-Agenten könnten Menschen dabei unterstützen, Aufgaben zu erledigen, und bieten zudem potenziell lukrative Geschäftsmöglichkeiten für Unternehmen, die mit den enormen Kosten der KI-Entwicklung konfrontiert sind.
Mira Murati, Chief Technology Officer von OpenAI, erklärte gegenüber der Financial Times, dass das Unternehmen bei der Einführung der o1-Modelle besonders vorsichtig vorgehe, da sie über weitreichende Fähigkeiten verfügen. Die Modelle werden jedoch über ChatGPT für zahlende Abonnenten und über eine API für Programmierer zugänglich gemacht. Murati fügte hinzu, dass die Modelle umfangreichen Sicherheitstests unterzogen wurden und in Bezug auf Sicherheit deutlich besser abschnitten als frühere Versionen.