AI

OpenAI apresenta novos modelos o1 com avançadas habilidades de resolução de problemas e alerta para riscos de abuso

OpenAI fez um grande avanço tecnológico com os modelos o1, mas ao mesmo tempo adverte sobre um risco aumentado de abuso, especialmente no que diz respeito ao desenvolvimento de armas biológicas.

Eulerpool News 14 de set. de 2024, 13:12

OpenAI apresentou na quinta-feira seus mais recentes modelos o1, que oferecem avanços significativos na área de raciocínio lógico, resolução de problemas e resposta a perguntas científicas. Os modelos são vistos como um passo decisivo no caminho para o desenvolvimento de uma inteligência geral artificial (AGI) – máquinas que alcançam a capacidade de pensar como um ser humano.

Na carta do sistema, que descreve como a IA funciona, a OpenAI reconhece que os novos modelos também aumentaram significativamente o risco de abuso da tecnologia, especialmente no contexto da produção de armas biológicas. Pela primeira vez, a empresa atribuiu aos seus modelos uma "classificação de risco médio" em relação a armas químicas, biológicas, radiológicas e nucleares (CBRN). Isso significa que a tecnologia aprimorou consideravelmente as capacidades dos especialistas no desenvolvimento de armas biológicas.

Software de IA avançada, capaz de realizar argumentações lógicas passo a passo, representa um maior potencial de abuso, segundo especialistas. Yoshua Bengio, um dos principais pesquisadores de IA do mundo, destacou a urgência de regulamentações legais para minimizar esses riscos. Ele citou um projeto de lei na Califórnia que exigiria que as empresas adotassem medidas de segurança para impedir o uso de IA no desenvolvimento de armas biológicas. "Quanto mais a IA avança em direção à AGI, maiores serão os riscos se não houver medidas de proteção adequadas", alertou Bengio.

Empresas de tecnologia como Google, Meta e Anthropic também estão atualmente trabalhando no desenvolvimento de sistemas de IA avançados. Esses agentes de IA podem ajudar as pessoas a realizar tarefas, além de oferecer oportunidades de negócios potencialmente lucrativas para empresas que enfrentam os enormes custos do desenvolvimento de IA.

Mira Murati, Diretora de Tecnologia da OpenAI, declarou ao Financial Times que a empresa está sendo particularmente cautelosa na implementação dos modelos o1, devido às suas capacidades amplas. No entanto, os modelos serão disponibilizados através do ChatGPT para assinantes pagantes e através de uma API para programadores. Murati acrescentou que os modelos passaram por extensos testes de segurança e tiveram um desempenho significativamente melhor em termos de segurança em comparação com versões anteriores.

Reconheça ações subavaliadas com um olhar.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Assinatura por 2 € / mês

Notícias