AI

KI de código abierto: un acto de equilibrio entre la transparencia y la seguridad

El desarrollo de sistemas de IA abiertos está ganando impulso, pero enfrenta desafíos en términos de transparencia y seguridad.

Eulerpool News 24 ago 2024, 15:44

El desarrollo de la inteligencia artificial (IA) de código abierto ha ganado considerable impulso en los últimos meses. En un entorno donde empresas como OpenAI y Google están invirtiendo miles de millones en sistemas de IA cada vez más potentes, los modelos abiertos han logrado avances notables. Sin embargo, a pesar del éxito aparente, se revela una debilidad central: muchos de estos llamados sistemas de código abierto son, en realidad, solo parcialmente abiertos.

Un ejemplo prominente es el Llama de Meta. Aunque se publican los "pesos" que determinan cómo responde el modelo a las solicitudes, los datos de entrenamiento subyacentes permanecen ocultos. Esto permite a los desarrolladores ajustar el modelo, pero falta la transparencia necesaria para recrearlo desde cero.

Para los desarrolladores, esta apertura limitada tiene, no obstante, ventajas. Pueden ajustar y entrenar modelos cuasi-abiertos con sus propios datos sin tener que compartir información sensible con empresas externas. Sin embargo, estas limitaciones tienen su precio. Ayah Bdeir, asesora principal de la Fundación Mozilla, enfatiza que solo las tecnologías verdaderamente abiertas permiten una comprensión exhaustiva de los sistemas que están influyendo cada vez más en todos los ámbitos de nuestra vida. Además, solo los sistemas verdaderamente abiertos pueden garantizar que la innovación y la competencia no sean sofocadas por un pequeño número de empresas dominantes de IA.

En respuesta a ello, la Iniciativa de Código Abierto, que hace más de 20 años estableció la definición de software de código abierto, ha presentado una definición casi final para la IA de código abierto. Esta definición exige no solo la publicación de los "pesos", sino también información suficiente sobre los datos de entrenamiento y el código subyacente para poder reproducir el modelo.

Esta tendencia ya está llevando a una segmentación más fuerte en el mundo de la IA. Muchas empresas manejan su terminología con más cautela para evitar disputas legales. Por ejemplo, Mistral denomina a su modelo Nemo como "Pesos Abiertos" y evita deliberadamente el término "Código Abierto".

Mientras se imponen los sistemas parcialmente abiertos, también surgen modelos completamente abiertos como el modelo de lenguaje Olmo del Allen Institute for AI. Sin embargo, está por verse si realmente tendrán el mismo impacto en el mundo de la IA que el software de código abierto en la industria tecnológica.

Para un avance de los modelos de IA abiertos, se necesitarían dos cosas.

En segundo lugar, los defensores de la IA abierta deberían presentar argumentos más convincentes sobre su seguridad. La perspectiva de hacer accesible una tecnología tan poderosa y general para todos suscita preocupaciones legítimas. Sin embargo, Oren Etzioni, exdirector del Allen Institute, considera que muchos de estos temores están exagerados. Argumenta que la información accesible a través de modelos de IA no es sustancialmente diferente de lo que ya está disponible en Google.

Hasta que se investiguen más a fondo los posibles riesgos y beneficios de la disponibilidad abierta de la tecnología de IA, seguirán existiendo preocupaciones.

Reconoce acciones infravaloradas de un vistazo.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Suscripción por 2 € / mes

Noticias