OpenAI presenterar nya o1-modeller med avancerade problemlösningsförmågor och varnar för missbruksrisker

OpenAI har gjort stora teknologiska framsteg med o1-modellerna, men varnar samtidigt för en ökad risk för missbruk, särskilt med avseende på utveckling av biologiska vapen.

2024-09-14 13:12
Eulerpool News 14 sep. 2024 13:12

OpenAI har på torsdagen presenterat sina senaste o1-modeller, som erbjuder betydande framsteg inom logiskt tänkande, problemlösning och att besvara vetenskapliga frågor. Modellerna ses som ett avgörande steg på vägen mot utveckling av en artificiell generell intelligens (AGI) – maskiner som kan uppnå mänsklig tankeförmåga.

Den medföljande systemkartan, som beskriver hur AI fungerar, erkänner OpenAI dock att de nya modellerna också har ökat risken för missbruk av teknologin, särskilt i samband med tillverkning av biologiska vapen, ”avsevärt”. För första gången tilldelade företaget sina modeller en "medelhög riskklassificering" med avseende på kemiska, biologiska, radiologiska och nukleära (CBRN) vapen. Detta innebär att teknologin avsevärt har förbättrat experternas förmåga att utveckla biologiska vapen.

Avancerad AI-programvara som kan utföra stegvisa logiska resonemang har, enligt experter, en ökad risk för missbruk. Yoshua Bengio, en av världens ledande AI-forskare, betonade vikten av lagstiftning för att minimera dessa risker. Han hänvisade till ett lagförslag i Kalifornien som skulle kräva att företag vidtar säkerhetsåtgärder för att förhindra användningen av AI i utvecklingen av biovapen. ”Ju mer AI utvecklas mot AGI, desto större blir riskerna om det inte finns adekvata skyddsåtgärder”, varnade Bengio.

Här är den översatta rubriken till svenska:

"Teknikföretag som Google, Meta och Anthropic arbetar också med att utveckla avancerade AI-system. Dessa AI-agenter kan hjälpa människor att utföra uppgifter och erbjuder dessutom potentiellt lönsamma affärsmöjligheter för företag som står inför de enorma kostnaderna för AI-utveckling.

Mira Murati, Chief Technology Officer på OpenAI, förklarade för Financial Times att företaget är särskilt försiktigt vid lanseringen av o1-modellerna eftersom de har omfattande kapaciteter. Modellerna kommer dock att göras tillgängliga via ChatGPT för betalande abonnenter och via en API för programmerare. Murati tillade att modellerna har genomgått omfattande säkerhetstester och presterade avsevärt bättre i säkerhetsaspekter än tidigare versioner.

Gör de bästa investeringarna i ditt liv
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Från 2 euro säkra

Nyheter