AI

Nvidia defiende su dominio en el mercado de chips de IA a pesar de la creciente competencia

Nvidia sigue siendo líder a pesar de la creciente competencia en el emergente mercado de chips de IA y continúa expandiendo su posición en el mercado mediante desarrollos de software estratégicos y la expansión de sus áreas de negocio.

Eulerpool News 30 ago 2024, 10:31

Nvidia, el líder del mercado indiscutible en el ámbito de los chips de IA, se enfrenta cada vez más a una creciente competencia. Sin embargo, mientras los competidores esperan ganar terreno en este mercado de rápido desarrollo, Nvidia no muestra hasta ahora señales de perder su posición dominante. Al contrario, la empresa sigue ampliando su presencia e influencia.

Un punto de inflexión decisivo en la competencia por el mercado de IA podría estar cerca. Sin embargo, la pregunta de si y cuándo Nvidia podría perder cuota de mercado frente a sus competidores sigue sin respuesta. El mercado de IA se desarolla rápidamente, y mientras el entrenamiento de grandes modelos "fundacionales," que subyacen a los sistemas de IA modernos, continúa requiriendo una inmensa potencia de cálculo, la llamada "inferencia" — la ejecución de consultas contra estos modelos — podría ofrecer una oportunidad a los competidores para introducir chips menos potentes y más baratos en el mercado.

Aún así, no parece que Nvidia vaya a perder su ventaja. Al anunciar sus últimos resultados trimestrales, la empresa declaró que más del 40 por ciento de sus ingresos de centros de datos el año pasado procedieron de Inference, lo que equivale a más de 33 mil millones de dólares. Esta cifra supera los ingresos totales de centros de datos de Intel en más de dos veces y media.

Sin embargo, el desarrollo del mercado de la inferencia sigue siendo incierto. Dos preguntas cruciales están en el aire: ¿Seguirá dominado el mercado de la inteligencia artificial por una carrera hacia modelos cada vez más grandes, y dónde se llevará a cabo la inferencia en el futuro?

Nvidia ha sacado gran provecho de esta carrera por modelos cada vez más grandes. Jensen Huang, CEO de Nvidia, afirmó que cada nueva generación de modelos de IA grandes "requiere 10, 20, 40 veces más poder de cálculo", lo que garantiza una demanda enorme de los próximos chips Blackwell de Nvidia. Estos nuevos procesadores también se supone que ofrecerán la manera más eficiente de llevar a cabo la inferencia contra estos "modelos de billones de parámetros".

Sin embargo, no está claro si los modelos cada vez más grandes seguirán dominando el mercado o si eventualmente encontrarán límites de eficiencia. Al mismo tiempo, los modelos más pequeños que prometen beneficios similares, así como los modelos especializados para áreas de aplicación más estrechas, están ganando popularidad. Meta, por ejemplo, ha afirmado recientemente que su nuevo modelo Llama 3.1 puede alcanzar el rendimiento de modelos avanzados como GPT-4 de OpenAI a pesar de su menor tamaño.

Here is the translation of the heading to Spanish:

"Mejores métodos de entrenamiento y el uso de grandes cantidades de datos de alta calidad también han contribuido a aumentar la eficiencia. Después del entrenamiento, los modelos más grandes también pueden ser "destilados" en versiones más pequeñas. Estos desarrollos podrían llevar a que más trabajo de inferencia se realice en centros de datos más pequeños o en dispositivos como smartphones y PC. 'Las cargas de trabajo de IA se trasladarán cada vez más a donde están los datos o los usuarios', dice Arun Chandrasekaran, analista de Gartner."

Note that the provided text does not contain a standalone heading. If you are looking to convert the first sentence into a heading, it would translate as follows:

"Mejores métodos de entrenamiento y el uso de grandes cantidades de datos de alta calidad han contribuido a una mayor eficiencia

La cantidad de competidores que apuntan a este nuevo mercado está creciendo rápidamente. Por ejemplo, la empresa Qualcomm fue la primera en desarrollar chips para una nueva clase de PCs con inteligencia artificial, desafiando así al líder de chips para PCs de larga data, Intel.

Es ist unvermeidlich, dass Nvidia Marktanteile verlieren wird, wenn KI-Inference auf Geräte verlagert wird, in denen das Unternehmen noch nicht vertreten ist, und auf die Rechenzentren von Cloud-Unternehmen, die eigene Chipdesigns bevorzugen. Um seine Position zu verteidigen, setzt Nvidia stark auf seine Softwarestrategie, die seit langem als Schutzwall um seine Hardware dient und Entwicklern die Nutzung seiner Chips erleichtert.

Es inevitablemente, que Nvidia perderá cuota de mercado si la inferencia de IA se traslada a dispositivos en los que la empresa todavía no está presente y a los centros de datos de las empresas de la nube que prefieren diseños de chips propios. Para defender su posición, Nvidia apuesta fuertemente por su estrategia de software, que desde hace mucho tiempo sirve como un escudo protector alrededor de su hardware y facilita a los desarrolladores el uso de sus chips.

Nvidia trabaja actualmente en una gama más amplia de software empresarial para ayudar a las empresas a desarrollar aplicaciones que aprovechen al máximo la inteligencia artificial. Esto también aseguraría la demanda de los chips de Nvidia. La compañía espera que los ingresos de este software alcancen una tasa anual de 2 mil millones de dólares para finales del año. Aunque esto es relativamente pequeño en comparación con los ingresos totales esperados de más de 100 mil millones de dólares, indica una creciente adopción de las tecnologías que aumenta la "adhesión" de los productos.

Aunque el mercado de chips de IA podría entrar en una nueva fase, el fuerte dominio de Nvidia no muestra señales de aflojar.

Reconoce acciones infravaloradas de un vistazo.

Suscripción por 2 € / mes

Noticias