OpenAI představuje nové modely o1 s pokročilými schopnostmi řešení problémů a varuje před riziky zneužití

OpenAI dosáhla s modely o1 velkého technologického pokroku, zároveň však varuje před zvýšeným rizikem zneužití, zejména co se týče vývoje biologických zbraní.

14. 9. 2024 13:12
Eulerpool News 14. 9. 2024 13:12

OpenAI představila ve čtvrtek své nejnovější modely o1, které nabízejí významný pokrok v oblasti logického myšlení, řešení problémů a odpovídání na vědecké otázky. Modely jsou považovány za klíčový krok na cestě k vývoji umělé obecné inteligence (AGI) – strojů, které dosáhnou schopnosti lidského myšlení.

Ve doprovodné systémové kartě, která popisuje způsob fungování AI, však OpenAI uznává, že nové modely výrazně zvýšily riziko zneužití technologie, zejména v souvislosti s výrobou biologických zbraní. Poprvé udělila společnost svým modelům „střední hodnocení rizika“ ve vztahu k chemickým, biologickým, radiologickým a jaderným (CBRN) zbraním. To znamená, že technologie výrazně zlepšila schopnosti odborníků při vývoji biologických zbraní.

Pokročilý software AI schopný krokových logických argumentací podle odborníků představuje zvýšené riziko zneužití. Yoshua Bengio, jeden z předních světových výzkumníků v oblasti AI, zdůraznil naléhavost právních předpisů k minimalizaci těchto rizik. Poukázal na návrh zákona v Kalifornii, který by od společností vyžadoval přijetí bezpečnostních opatření k zabránění využití AI k vývoji biologických zbraní. „Čím více se AI přibližuje k AGI, tím větší jsou rizika, pokud nejsou přijata adekvátní ochranná opatření,“ varoval Bengio.

Technologické společnosti jako Google, Meta a Anthropic v současnosti také pracují na vývoji pokročilých systémů umělé inteligence. Tito AI agenti by mohli lidem pomáhat s plněním úkolů a zároveň nabízet potenciálně lukrativní obchodní příležitosti pro firmy, které čelí ohromným nákladům na vývoj AI.

Mira Murati, technická ředitelka společnosti OpenAI, uvedla pro Financial Times, že společnost postupuje při zavádění modelů o1 obzvláště opatrně, protože disponují rozsáhlými schopnostmi. Modely však budou přístupné prostřednictvím ChatGPT pro platící předplatitele a přes API pro programátory. Murati dodala, že modely byly podrobeny rozsáhlým bezpečnostním testům a v otázkách bezpečnosti dosáhly výrazně lepších výsledků než předchozí verze.

Udělej nejlepší investice svého života
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Za 2 eura si zabezpečte

Novinky