Amazon intensifie sa présence sur le marché des semi-conducteurs avec de nouvelles puces d'IA pour réduire sa dépendance à Nvidia et rendre son infrastructure cloud plus efficace. Annapurna Labs, basée à Austin et acquise par Amazon en 2015, a développé la dernière génération de puces « Trainium 2 », spécialement conçue pour l'apprentissage de l'IA et qui devrait être présentée en décembre. Parmi les premiers clients test, on trouve Anthropic, Databricks ainsi que Deutsche Telekom.
L'objectif : Offrir des alternatives à Nvidia. « Nous voulons être la meilleure plateforme pour Nvidia, mais il est sain d'avoir une alternative », a déclaré Dave Brown, vice-président Compute chez AWS. Amazon souligne que ses propres puces IA, notamment « Inferentia », sont déjà 40 % moins chères que les produits de Nvidia.
Les investissements d'Amazon dans l'infrastructure et la technologie augmentent drastiquement : ils devraient atteindre environ 75 milliards de dollars en 2024, soit bien plus que les 48,4 milliards de l'année précédente. Cette évolution stratégique se reflète chez d'autres géants de la technologie comme Microsoft et Google, qui investissent également dans leurs propres puces pour répondre aux exigences croissantes de la révolution de l'IA.
« Chaque fournisseur de cloud vise une intégration verticale », déclare Daniel Newman du groupe Futurum. Grâce au développement de leurs propres puces, des entreprises comme Amazon et Meta s'assurent des avantages en termes de coûts et un meilleur contrôle.
L'offensive contre Nvidia montre jusqu'à présent des effets limités. Nvidia a généré au dernier trimestre un chiffre d'affaires de 26,3 milliards de dollars avec des puces de centres de données pour l'IA – une somme qui égalait l'ensemble de la division AWS d'Amazon durant la même période.