AI

Amazon greift Nvidia mit eigenen KI-Chips an

Amazon investiert Milliarden in eigene KI-Chips, um Marktführer Nvidia Konkurrenz zu machen und Kosten zu senken.

Eulerpool News 13. Nov. 2024, 17:15

Amazon drängt mit neuen KI-Chips stärker in den Halbleitermarkt, um Abhängigkeiten von Nvidia zu reduzieren und seine eigene Cloud-Infrastruktur effizienter zu gestalten. Die in Austin ansässige Annapurna Labs, die Amazon 2015 erwarb, entwickelte die jüngste Chip-Generation „Trainium 2“, die speziell für KI-Trainings ausgelegt ist und im Dezember vorgestellt werden soll. Zu den ersten Testkunden zählen Anthropic, Databricks sowie Deutsche Telekom.

Das Ziel: Alternativen zu Nvidia bieten. „Wir wollen die beste Plattform für Nvidia sein, aber es ist gesund, eine Alternative zu haben“, sagte Dave Brown, Vice President Compute bei AWS. Amazon betont, dass die eigenen KI-Chips – darunter „Inferentia“ – bereits 40 Prozent günstiger seien als Nvidias Produkte.

Die Investitionen von Amazon in Infrastruktur und Technologie steigen drastisch: 2024 sollen es rund 75 Milliarden Dollar werden, deutlich mehr als die 48,4 Milliarden aus dem Vorjahr. Diese strategische Entwicklung spiegelt sich bei anderen Tech-Giganten wie Microsoft und Google wider, die ebenfalls in eigene Chips investieren, um die steigenden Anforderungen der KI-Revolution zu bedienen.

„Jeder Cloud-Anbieter strebt eine vertikale Integration an“, so Daniel Newman von der Futurum Group. Durch eigene Chip-Entwicklung sichern sich Unternehmen wie Amazon und Meta Kostenvorteile und mehr Kontrolle.

Der Vorstoß gegen Nvidia zeigt bisher jedoch nur begrenzte Wirkung. Nvidia generierte im letzten Quartal 26,3 Milliarden Dollar Umsatz mit KI-Datenzentrumschips – eine Summe, die Amazons gesamte AWS-Sparte im gleichen Zeitraum einbrachte.

Unlimitierter Zugriff zu den besten Analysetools

Für 2 € sichern

Favoriten unserer Leser