OpenAI представляє нові моделі о1 з передовими навичками вирішення проблем і застерігає про ризики зловживання

14.09.2024, 13:12

OpenAI досягла великого технологічного прогресу з моделями o1, але водночас попереджає про підвищений ризик зловживання, особливо у контексті розвитку біологічної зброї.

Eulerpool News 14 вер. 2024 р., 13:12

OpenAI представила у четвер свої новітні моделі o1, які пропонують значні досягнення в області логічного мислення, вирішення проблем і відповідей на наукові питання. Моделі вважаються важливим кроком на шляху до розвитку штучного загального інтелекту (AGI) – машин, які досягають людської здатності мислити.

У супровідній системній карті, яка описує принцип роботи ШІ, OpenAI визнає, що нові моделі також значно підвищили ризик зловживання технологією, особливо у зв'язку з виробництвом біологічної зброї. Вперше компанія надала своїм моделям «середній рівень ризику» щодо хімічної, біологічної, радіологічної та ядерної (CBRN) зброї. Це означає, що технологія значно покращила можливості експертів у розробці біозброї.

Передова програмна система зі штучним інтелектом, здатна проводити покрокові логічні міркування, несе підвищений потенціал для зловживань, на думку експертів. Йошуа Бенджіо, один з провідних дослідників штучного інтелекту у світі, наголосив на нагальній потребі у законодавчих регулюваннях для мінімізації цих ризиків. Він згадав про законопроект у Каліфорнії, який зобов'язав би компанії вживати заходів безпеки для запобігання використанню штучного інтелекту при розробці біологічної зброї. «Чим більше штучний інтелект наближається до загального штучного інтелекту, тим більшими стають ризики, якщо не існує відповідних заходів захисту», — застеріг Бенджіо.

Технологічні компанії, як-от Google, Meta та Anthropic, також працюють над створенням передових систем штучного інтелекту. Ці агенти зі штучним інтелектом можуть допомагати людям виконувати завдання та пропонувати потенційно прибуткові бізнес-можливості для компаній, які стикаються з величезними витратами на розробку штучного інтелекту.

Міра Мураті, технічний директор OpenAI, заявила Financial Times, що компанія підходить до впровадження моделей o1 з особливою обережністю, оскільки вони мають широкі можливості. Однак ці моделі будуть доступні для платних абонентів через ChatGPT і для програмістів через API. Мураті додала, що моделі пройшли великі безпекові тести і показали значно кращі результати безпеки порівняно з попередніми версіями.

Зроби найкращі інвестиції свого життя
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Від 2 євро забезпечте

Новини