AI

Microsoftov zaustav za prevare putem chatbotova

Копилот предузећа је недавно пружио чудне, штетне одговоре. Механизми одбране треба да препознају и блокирају сумњиве активности.

Eulerpool News 31. мар 2024. 15:01

Корпорација Мајкрософт предузима мере да спречи да се вештачка интелигенција четботови помоћу трикова подстичу на неуобичајено или штетно понашање. У блог посту од четвртка, компанија са седиштем у Редмонду, Вашингтон, најавила је нове безбедносне функције за Azure AI Studio. Овај алат омогућава програмерима да створе прилагођене АИ асистенте са сопственим подацима.

Među novim alatima su "Prompt-štitioci", koji su dizajnirani da prepoznaju i blokiraju namjerno pokušaje - takozvane Prompt-injekcione napade ili Jailbreak-ove - kojima se pokušava naterati AI-model na neželjeno ponašanje.

Microsoft se bavi i „indirektnim ubrizgavanjem promptova“, gde hakeri ubacuju štetne naredbe u podatke koji se koriste za treniranje modela, čime ga navode na neautorizovane radnje poput krađe informacija o korisnicima ili preuzimanja kontrole nad sistemom.

Takvi napadi predstavljaju jedinstven izazov i pretnju, prema rečima Sare Bird, glavne direktorke za proizvod u Majkrosoftu za odgovornu veštačku inteligenciju. Nove mere odbrane su dizajnirane da prepoznaju sumnjive unose i blokiraju ih u stvarnom vremenu.

Pored toga, Microsoft uvodi funkciju koja upozorava korisnike kada model izmišlja ili generiše pogrešne odgovore. Microsoft teži da ojača poverenje u svoje generativne AI alate, koji se koriste i od strane potrošača i poslovnih korisnika.

U februaru je kompanija istraživala incidente sa svojim Copilot chatbotom, koji je generisao sve od čudnih do štetnih odgovora. Nakon pregleda incidenata, Microsoft je objasnio da su korisnici namerno pokušavali da navedu Copilot na te odgovore.

Microsoft je najveći investitor u OpenAI i pretvorio je partnerstvo u ključni element svoje strategije veštačke inteligencije. Bird je naglasio da se Microsoft i OpenAI posvećuju bezbednoj upotrebi veštačke inteligencije i uključivanju zaštitnih mera u velike jezičke modele koji leže u osnovi generativne AI. "Međutim, ne može se osloniti samo na model," rekla je ona. "Ovi 'Jailbreaks', na primer, su inherentna slabost tehnologije modela."

Napravi najbolje investicije svog života.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Od 2 evra osigurajте

Vesti