AI

Microsoft aptur Chatbotu krāpšanas trikus

Uzņēmuma kopilots nesen sniedza dīvainas, kaitīgas atbildes. Aizsardzības mehānismiem jāatpazīst un jābloķē aizdomīgas darbības.

Eulerpool News 2024. g. 31. marts 15:01

Microsoft Corp. veic pasākumus, lai novērstu mākslīgā intelekta čatbotu izraisīšanu uz neierastu vai kaitīgu uzvedību ar trikiem. Ceturtdienas bloga ierakstā uzņēmums, kas atrodas Redmondā, Vašingtonā, paziņoja par jaunām drošības funkcijām Azure AI Studio. Šis rīks ļauj izstrādātājiem izveidot pielāgotus AI asistentus, izmantojot savus datus.

Jaunajiem rīkiem ir iekļauti "Prompt Shieldi", kas ir paredzēti apzinātu mēģinājumu - tā sauktie Prompt injekcijas uzbrukumi vai Jailbreaki - atpazīšanai un bloķēšanai, ar kuriem tiek mēģināts mudināt AI modeli uz nevēlamu rīcību.

"Microsoft vēršas pret "netiešiem Prompt-Injekcijām", kur hakeri ievieto kaitīgas instrukcijas apmācībai izmantoto datu iekšienē, tādējādi mudinot modeli veikt neautorizētas darbības, piemēram, lietotāju informācijas zādzību vai sistēmas pārņemšanu."

Šādi uzbrukumi, pēc Microsoft atbildīgās mākslīgā intelekta galvenās produktu vadītājas Sāras Birdas teiktā, ir unikāls izaicinājums un drauds. Jaunās aizsardzības pasākumi ir izstrādāti, lai atpazītu aizdomīgus ievadus un tos bloķētu reāllaikā.

Turklāt Microsoft ievieš funkciju, kas brīdina lietotājus, ja modelis izveido izgudrojumus vai rada kļūdainas atbildes. Microsoft cenšas palielināt uzticību savām ģeneratīvās mākslīgā intelekta rīkiem, ko izmanto gan patērētāji, gan uzņēmuma klienti.

Februārī uzņēmums izmeklēja incidentus ar savu Copilot tērzēšanas robotu, kurš radīja visu no dīvainām līdz pat kaitīgām atbildēm. Pēc incidentu pārskatīšanas Microsoft paziņoja, ka lietotāji bija mēģinājuši apzināti mudināt Copilot uz šīm atbildēm.

Microsoft ir lielākais OpenAI investīcijas veicējs un ir padarījis sadarbību par sava mākslīgā intelekta stratēģijas atslēgas elementu. Birda uzsvēra, ka Microsoft un OpenAI velta uzmanību drošai KI lietošanai un integrē aizsardzības pasākumus lielajos valodu modeļos, kas ir generatīvās KI pamatā. "Tomēr, nevar paļauties tikai uz modeli," viņa teica. "Šie 'jailbreak' piemēri ir modeļa tehnoloģijas iedzimta vājība."

Veic labākos ieguldījumus savā dzīvē
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Par 2 € nodrošiniet

Jaunumi