AI

Microsofts Stopp für Chatbot-Tricksereien

Copilot des Unternehmens lieferte kürzlich seltsame, schädliche Antworten. Abwehrmechanismen sollen verdächtige Aktivitäten erkennen und blockieren.

31. März 2024, 15:01

Microsoft Corp. ergreift Maßnahmen, um zu verhindern, dass künstliche Intelligenz-Chatbots durch Tricks zu ungewöhnlichem oder schädlichem Verhalten veranlasst werden. In einem Blogbeitrag vom Donnerstag kündigte das Unternehmen mit Sitz in Redmond, Washington, neue Sicherheitsfunktionen für Azure AI Studio an. Dieses Tool ermöglicht Entwicklern, maßgeschneiderte AI-Assistenten mit eigenen Daten zu erstellen.

Zu den neuen Tools gehören „Prompt-Schilde“, die darauf ausgelegt sind, absichtliche Versuche – sogenannte Prompt-Injektionsangriffe oder Jailbreaks – zu erkennen und zu blockieren, mit denen versucht wird, ein AI-Modell zu einem unbeabsichtigten Verhalten zu verleiten.

Microsoft nimmt sich zudem der „indirekten Prompt-Injektionen“ an, bei denen Hacker schädliche Anweisungen in die Daten einfügen, mit denen ein Modell trainiert wird, und es so zu nicht autorisierten Handlungen wie dem Stehlen von Benutzerinformationen oder dem Übernehmen eines Systems verleiten.

Solche Angriffe stellen laut Sarah Bird, Microsofts Chief Product Officer für verantwortungsvolle KI, eine einzigartige Herausforderung und Bedrohung dar. Die neuen Verteidigungsmaßnahmen sind darauf ausgelegt, verdächtige Eingaben zu erkennen und in Echtzeit zu blockieren.

Außerdem führt Microsoft eine Funktion ein, die Benutzer warnt, wenn ein Modell Erfindungen macht oder fehlerhafte Antworten generiert. Microsoft ist bestrebt, das Vertrauen in seine generativen KI-Tools zu stärken, die sowohl von Verbrauchern als auch von Unternehmenskunden genutzt werden.

Im Februar untersuchte das Unternehmen Vorfälle mit seinem Copilot-Chatbot, der von seltsamen bis hin zu schädlichen Antworten alles generierte. Nach der Überprüfung der Vorfälle erklärte Microsoft, dass Benutzer absichtlich versucht hatten, Copilot zu diesen Antworten zu verleiten.

Microsoft ist der größte Investor von OpenAI und hat die Partnerschaft zu einem Schlüsselelement seiner KI-Strategie gemacht. Bird betonte, dass Microsoft und OpenAI sich dem sicheren Einsatz von KI widmen und Schutzmaßnahmen in die großen Sprachmodelle integrieren, die generative KI zugrunde liegen. „Man kann sich jedoch nicht allein auf das Modell verlassen“, sagte sie. „Diese Jailbreaks zum Beispiel sind eine inhärente Schwäche der Modelltechnologie.“

Die besten Investoren analysieren mit Eulerpool
20 million companies worldwide · 50 year history · 10 year estimates · leading global news coverage

Für 2 € sichern

Favoriten unserer Leser