OpenAI представляет новые модели o1 с передовыми способностями к решению проблем и предупреждает о рисках злоупотребления

14.09.2024, 13:12

OpenAI добилась значительного технологического прогресса с моделями o1, однако одновременно предупреждает об увеличении риска злоупотреблений, особенно в отношении разработки биологического оружия.

Eulerpool News 14 сент. 2024 г., 13:12

OpenAI представила свои новые модели o1 в четверг, которые предлагают значительные достижения в области логического мышления, решения проблем и ответа на научные вопросы. Модели рассматриваются как важный шаг на пути к разработке искусственного общего интеллекта (AGI) – машин, которые достигают уровня человеческого мышления.

В сопроводительной системной карте, описывающей функционирование ИИ, OpenAI признает, что новые модели также значительно увеличили риск злоупотребления технологией, особенно в контексте разработки биологического оружия. Впервые компания присвоила своим моделям «среднюю оценку риска» в отношении химического, биологического, радиологического и ядерного (ХБРЯ) оружия. Это означает, что технология значительно улучшила способности экспертов к разработке биологического оружия.

Продвинутое программное обеспечение ИИ, способное выполнять пошаговые логические рассуждения, по мнению экспертов, несет в себе повышенный потенциал для злоупотреблений. Йошуа Бенжио, один из ведущих мировых исследователей ИИ, подчеркнул необходимость законодательных мер для минимизации этих рисков. Он сослался на законопроект в Калифорнии, который обязал бы компании принять меры безопасности, чтобы предотвратить использование ИИ для разработки биологического оружия. «Чем больше ИИ продвигается в направлении ИИИ, тем больше риски, если не будет надлежащих мер защиты», — предупредил Бенжио.

Технологические компании, такие как Google, Meta и Anthropic, также работают над созданием передовых систем ИИ. Эти ИИ-агенты могут помочь людям выполнять задачи и предлагают потенциально выгодные бизнес-возможности для компаний, сталкивающихся с огромными затратами на разработку ИИ.

Certainly! Here is the translated heading in Russian:

Мира Муратти, директор по технологиям OpenAI, заявила в интервью Financial Times, что компания проявляет особую осторожность при введении моделей o1, так как они обладают широкими возможностями. Однако модели будут доступны через ChatGPT для платных подписчиков и через API для программистов. Муратти добавила, что модели прошли обширные тесты на безопасность и показали значительно лучшие результаты в плане безопасности по сравнению с предыдущими версиями.

Let me know if you need any further assistance!

Определите недооцененные акции за один взгляд.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Подписка за 2 € / месяц

Новости