OpenAI esittelee uusia o1-malleja, joilla on edistyneitä ongelmanratkaisutaitoja, ja varoittaa väärinkäytön riskeistä

OpenAI on saavuttanut merkittävän teknologisen edistysaskeleen o1-malleilla, mutta varoittaa samalla lisääntyneestä väärinkäytön riskistä, erityisesti bioweaponien kehitykseen liittyen.

14.9.2024 klo 13.12
Eulerpool News 14. syysk. 2024 klo 13.12

OpenAI esitteli torstaina uusimmat o1-mallinsa, jotka tarjoavat merkittäviä edistysaskeleita loogisessa ajattelussa, ongelmanratkaisussa ja tieteellisten kysymysten vastauksissa. Malien katsotaan olevan ratkaiseva askel kohti yleisen tekoälyn (AGI) kehittämistä – koneita, jotka saavuttavat inhimillisen ajattelukyvyn.

Seurantakartassa, joka kuvaa tekoälyn toimintaa, OpenAI kuitenkin tunnustaa, että uudet mallit ovat myös huomattavasti lisänneet teknologian väärinkäytön riskiä erityisesti biologisten aseiden valmistuksessa. Yritys antoi ensimmäistä kertaa malleilleen "keskiriskiluokituksen" kemiallisten, biologisten, radiologisten ja ydinaseiden (CBRN) suhteen. Tämä tarkoittaa, että teknologia on huomattavasti parantanut asiantuntijoiden kykyjä kehittää biologisia aseita.

Edistyksellinen tekoälyohjelmisto, joka kykenee suorittamaan vaiheittaisia loogisia päättelyitä, sisältää asiantuntijoiden mukaan lisääntyneen väärinkäytön riskin. Yoshua Bengio, yksi maailman johtavista tekoälytutkijoista, korosti kiireellisyyttä säätää lakeja näiden riskien minimoimiseksi. Hän viittasi Kaliforniassa olevaan lakialoitteeseen, joka vaatisi yrityksiltä turvallisuustoimenpiteitä tekoälyn käytön estämiseksi biologisten aseiden kehittämisessä. "Mitä enemmän tekoäly etenee kohti keinoälyä (AGI), sitä suuremmiksi riskit kasvavat, jos asianmukaisia suojatoimenpiteitä ei ole", varoitti Bengio.

Teknologiayritykset kuten Google, Meta ja Anthropic kehittävät myös tällä hetkellä kehittyneitä tekoälyjärjestelmiä. Nämä tekoälyagentit voisivat auttaa ihmisiä tehtävien suorittamisessa ja tarjoaisivat lisäksi mahdollisesti tuottavia liiketoimintamahdollisuuksia yrityksille, jotka kohtaavat tekoälyn kehityksen valtavat kustannukset.

Mira Murati, OpenAIn teknologiajohtaja, kertoi Financial Times -lehdelle, että yritys on erityisen varovainen o1-mallien käyttöönotossa, koska niillä on laajat kyvyt. Mallit tehdään kuitenkin saataville maksaville tilaajille ChatGPT:n kautta ja ohjelmoijille API:n kautta. Murati lisäsi, että malleille on tehty kattavat turvallisuustestit ja ne pärjäsivät turvallisuudessa huomattavasti paremmin kuin aiemmat versiot.

Tee elämäsi parhaat sijoitukset
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Alkaen 2 euroa

Uutiset