OpenAI představila ve čtvrtek své nejnovější modely o1, které nabízejí významný pokrok v oblasti logického myšlení, řešení problémů a odpovídání na vědecké otázky. Modely jsou považovány za klíčový krok na cestě k vývoji umělé obecné inteligence (AGI) – strojů, které dosáhnou schopnosti lidského myšlení.
Ve doprovodné systémové kartě, která popisuje způsob fungování AI, však OpenAI uznává, že nové modely výrazně zvýšily riziko zneužití technologie, zejména v souvislosti s výrobou biologických zbraní. Poprvé udělila společnost svým modelům „střední hodnocení rizika“ ve vztahu k chemickým, biologickým, radiologickým a jaderným (CBRN) zbraním. To znamená, že technologie výrazně zlepšila schopnosti odborníků při vývoji biologických zbraní.
Pokročilý software AI schopný krokových logických argumentací podle odborníků představuje zvýšené riziko zneužití. Yoshua Bengio, jeden z předních světových výzkumníků v oblasti AI, zdůraznil naléhavost právních předpisů k minimalizaci těchto rizik. Poukázal na návrh zákona v Kalifornii, který by od společností vyžadoval přijetí bezpečnostních opatření k zabránění využití AI k vývoji biologických zbraní. „Čím více se AI přibližuje k AGI, tím větší jsou rizika, pokud nejsou přijata adekvátní ochranná opatření,“ varoval Bengio.
Technologické společnosti jako Google, Meta a Anthropic v současnosti také pracují na vývoji pokročilých systémů umělé inteligence. Tito AI agenti by mohli lidem pomáhat s plněním úkolů a zároveň nabízet potenciálně lukrativní obchodní příležitosti pro firmy, které čelí ohromným nákladům na vývoj AI.
Mira Murati, technická ředitelka společnosti OpenAI, uvedla pro Financial Times, že společnost postupuje při zavádění modelů o1 obzvláště opatrně, protože disponují rozsáhlými schopnostmi. Modely však budou přístupné prostřednictvím ChatGPT pro platící předplatitele a přes API pro programátory. Murati dodala, že modely byly podrobeny rozsáhlým bezpečnostním testům a v otázkách bezpečnosti dosáhly výrazně lepších výsledků než předchozí verze.