AI

Microsofts stop for chatbot-fiflerier

Copiloten fra virksomheden leverede for nylig underlige, skadelige svar. Forsvarsmekanismer skal identificere og blokere mistænkelige aktiviteter.

Eulerpool News 31. mar. 2024, 15.01

Microsoft Corp. træffer foranstaltninger for at forhindre, at kunstig intelligens-chatbots lokkes til usædvanlig eller skadelig adfærd gennem tricks. I et blogindlæg fra torsdag annoncerede virksomheden med base i Redmond, Washington, nye sikkerhedsfunktioner til Azure AI Studio. Dette værktøj giver udviklere mulighed for at skabe tilpassede AI-assistenter med deres egne data.

De nye værktøjer inkluderer "Prompt-skjold", der er designet til at opdage og blokere forsætlige forsøg – såkaldte Prompt-injektionsangreb eller jailbreaks – som forsøger at lokke en AI-model til uønsket adfærd.

Microsoft tager sig også af "indirekte prompt-injektioner", hvor hackere indsætter skadelige instruktioner i de data, som en model trænes med, og på den måde lokker den til uautoriserede handlinger som at stjæle brugerinformationer eller overtage et system.

Sådanne angreb udgør ifølge Sarah Bird, Microsofts Chief Product Officer for ansvarlig AI, en unik udfordring og trussel. De nye forsvarsforanstaltninger er designet til at genkende mistænkelige input og blokere dem i realtid.

Desuden introducerer Microsoft en funktion, der advarer brugere, når en model opfinder ting eller genererer fejlagtige svar. Microsoft stræber efter at styrke tilliden til sine generative AI-værktøjer, der bruges af både forbrugere og erhvervskunder.

I februar undersøgte virksomheden hændelser med sin Copilot-chatbot, der genererede alt fra underlige til skadelige svar. Efter gennemgangen af hændelserne forklarede Microsoft, at brugerne med vilje havde forsøgt at få Copilot til at komme med disse svar.

Microsoft er den største investor i OpenAI og har gjort partnerskabet til et nøgleelement i sin AI-strategi. Bird understregede, at Microsoft og OpenAI er dedikeret til sikker brug af AI og integrerer beskyttelsestiltag i de store sprogmodeller, som er grundlaget for generativ AI. "Man kan dog ikke stole udelukkende på modellen," sagde hun. "Disse jailbreaks, for eksempel, er en iboende svaghed ved modelteknologien."

Gør de bedste investeringer i dit liv.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Sikre dig for 2 euro

Nyheder