AI
Nvidia défend sa dominance sur le marché des puces IA malgré la concurrence émergente
Nvidia reste leader malgré une concurrence croissante sur le marché en plein essor des puces d'IA et continue de renforcer sa position sur le marché grâce à des développements logiciels stratégiques et à l'expansion de ses activités.
Nvidia, le leader incontesté du marché des puces d'IA, est de plus en plus confronté à une concurrence croissante. Mais alors que les concurrents espèrent s’implanter dans ce marché en pleine évolution, Nvidia ne montre jusqu'à présent aucun signe de perte de sa position dominante. Au contraire, l'entreprise continue d'étendre sa présence et son influence.
Un tournant décisif dans la compétition pour le marché de l'IA pourrait être imminent. Cependant, la question de savoir si et quand Nvidia pourrait perdre des parts de marché au profit de ses concurrents reste ouverte. Le marché de l'IA évolue rapidement, et bien que l'entraînement de grands modèles de base, qui sous-tendent les systèmes d'IA modernes, nécessite toujours une immense puissance de calcul, l'inférence – l'exécution de requêtes contre ces modèles – pourrait offrir aux concurrents l'opportunité de proposer des puces moins puissantes et plus abordables sur le marché.
Néanmoins, jusqu’à présent, il ne semble pas que Nvidia perde son avance. Lors de l’annonce de ses résultats trimestriels les plus récents, l’entreprise a déclaré que plus de 40 % de ses revenus des centres de données de l’année dernière provenaient de l'inférence, ce qui représente plus de 33 milliards de dollars américains. Ce chiffre dépasse plus de deux fois et demie les revenus des centres de données d'Intel.
Mais l'évolution du marché de l'inférence reste incertaine. Deux questions cruciales se posent : Le marché de l'IA sera-t-il toujours dominé par une course aux modèles de plus en plus grands, et où se déroulera l'inférence à l'avenir ?
Nvidia a grandement profité de cette course aux modèles toujours plus grands. Jensen Huang, PDG de Nvidia, a déclaré que chaque nouvelle génération de modèles d'IA de grande taille nécessite « 10, 20, 40 fois plus de puissance de calcul », ce qui garantit une demande énorme pour les futurs puces Blackwell de Nvidia. Ces nouveaux processeurs devraient également offrir le moyen le plus efficace de réaliser des inférences avec ces modèles « à plusieurs trillions de paramètres ».
Il n'est cependant pas clair si des modèles toujours plus grands continueront à dominer le marché ou si ces modèles atteindront un jour des limites d'efficacité. Parallèlement, les plus petits modèles, qui promettent des avantages similaires, ainsi que les modèles spécialisés pour des domaines d'application plus restreints, gagnent en popularité. Par exemple, Meta a récemment affirmé que son nouveau modèle Llama 3.1 peut atteindre les performances de modèles avancés comme le GPT-4 de OpenAI malgré sa taille plus réduite.
Des méthodes d'entraînement améliorées et l'utilisation de plus grandes quantités de données de haute qualité ont également contribué à l'augmentation de l'efficacité. Après l'entraînement, les plus grands modèles peuvent également être « distillés » en versions plus petites. Ces développements pourraient entraîner une plus grande exécution des tâches d'inférence dans des centres de données plus petits ou sur des appareils tels que les smartphones et les PC. « Les charges de travail d'IA se déplaceront de plus en plus là où se trouvent les données ou les utilisateurs », déclare Arun Chandrasekaran, analyste chez Gartner.
Le nombre de concurrents ciblant ce nouveau marché croît rapidement.
Il est inévitable que Nvidia perde des parts de marché lorsque l'inférence d'IA sera transférée vers des appareils où l'entreprise n'est pas encore présente et vers les centres de données des entreprises de cloud qui préfèrent concevoir leurs propres puces. Pour défendre sa position, Nvidia mise fortement sur sa stratégie logicielle, qui sert depuis longtemps de rempart à son matériel et facilite l'utilisation de ses puces par les développeurs.
Nvidia arbeitet derzeit an einer breiteren Palette von Unternehmenssoftware, die Unternehmen dabei helfen soll, Anwendungen zu entwickeln, die die KI optimal nutzen. Dies würde auch die Nachfrage nach Nvidias Chips sichern. Das Unternehmen erwartet, dass der Umsatz mit dieser Software bis Ende des Jahres eine jährliche Laufzeit von 2 Milliarden US-Dollar erreichen wird. Zwar ist dies im Vergleich zu den erwarteten Gesamterlösen von über 100 Milliarden US-Dollar relativ gering, doch deutet dies auf eine zunehmende Verankerung der Technologien hin, die die „Klebrigkeit“ der Produkte erhöht.
Nvidia travaille actuellement sur une gamme plus large de logiciels d'entreprise pour aider les entreprises à développer des applications tirant pleinement parti de l'intelligence artificielle. Cela permettrait également d'assurer la demande pour les puces Nvidia. L'entreprise prévoit que les revenus de ces logiciels atteindront un taux annuel de 2 milliards de dollars d'ici la fin de l'année. Bien que cela soit relativement faible par rapport aux revenus totaux attendus de plus de 100 milliards de dollars, cela indique une intégration accrue des technologies qui augmentent "l'adhérence" des produits.
Bien que le marché des puces d'IA puisse entrer dans une nouvelle phase, la forte emprise de Nvidia ne montre aucun signe de relâchement.