OpenAI præsenterer nye o1-modeller med avancerede problemløsningsfærdigheder og advarer mod misbrugsrisici

OpenAI har med o1-modellerne opnået et stort teknologisk fremskridt, advarer dog samtidigt om en øget risiko for misbrug, især med hensyn til udvikling af biologiske våben.

14.9.2024, 13.12
Eulerpool News 14. sep. 2024, 13.12

OpenAI præsenterede sine nyeste o1-modeller torsdag, som tilbyder betydelige fremskridt inden for logisk tænkning, problemløsning og besvarelse af videnskabelige spørgsmål. Modellerne anses for at være et afgørende skridt på vejen mod udviklingen af en kunstig generel intelligens (AGI) – maskiner, der kan opnå menneskelig tænkeevne.

I det ledsagende systemkort, der beskriver, hvordan KI'en fungerer, erkender OpenAI dog, at de nye modeller også har "signifikant forøget" risikoen for misbrug af teknologien, især i forbindelse med fremstilling af biologiske våben. For første gang tildelte virksomheden sine modeller en "middel risikovurdering" med hensyn til kemiske, biologiske, radiologiske og nukleare (CBRN) våben. Dette betyder, at teknologien væsentligt har forbedret eksperternes evner til at udvikle biologiske våben.

Avanceret AI-software, der er i stand til at gennemføre trinvise logiske argumentationer, indebærer ifølge eksperter en øget risiko for misbrug. Yoshua Bengio, en af verdens førende AI-forskere, understregede nødvendigheden af lovgivning for at minimere disse risici. Han henviste til et lovforslag i Californien, som ville kræve, at virksomheder træffer sikkerhedsforanstaltninger for at forhindre brugen af AI til udvikling af biologiske våben. "Jo mere AI nærmer sig AGI, desto større bliver risiciene, hvis der ikke er passende sikkerhedsforanstaltninger på plads," advarede Bengio.

Teknologivirksomheder som Google, Meta og Anthropic arbejder også i øjeblikket på at udvikle avancerede AI-systemer. Disse AI-agenter kunne hjælpe mennesker med at udføre opgaver og tilbyde desuden potentielt lukrative forretningsmuligheder for virksomheder, der står over for de enorme omkostninger ved AI-udvikling.

Mira Murati, Chief Technology Officer hos OpenAI, forklarede til Financial Times, at virksomheden ved introduktionen af o1-modellerne er særligt forsigtige, da de har omfattende kapaciteter. Modellerne vil dog være tilgængelige via ChatGPT for betalende abonnenter og via en API for programmører. Murati tilføjede, at modellerne blev udsat for omfattende sikkerhedstest og klarede sig betydeligt bedre med hensyn til sikkerhed end tidligere versioner.

Gør de bedste investeringer i dit liv.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Sikre dig for 2 euro

Nyheder