AI

Nvidia verteidigt Dominanz im KI-Chipmarkt trotz aufkommender Konkurrenz

Nvidia bleibt trotz wachsender Konkurrenz im aufstrebenden Markt für KI-Chips weiterhin führend und baut seine Marktstellung durch strategische Softwareentwicklungen und die Ausweitung seiner Geschäftsbereiche weiter aus.

Eulerpool News 30. Aug. 2024, 10:31

Nvidia, der unangefochtene Marktführer im Bereich der KI-Chips, sieht sich zunehmend mit wachsender Konkurrenz konfrontiert. Doch während Wettbewerber hoffen, in diesem sich schnell entwickelnden Markt Fuß zu fassen, zeigt Nvidia bisher keine Anzeichen, seine dominierende Position einzubüßen. Im Gegenteil: Das Unternehmen baut seine Präsenz und seinen Einfluss weiter aus.

Ein entscheidender Wendepunkt im Wettbewerb um den KI-Markt könnte bevorstehen. Allerdings bleibt die Frage, ob und wann Nvidia Marktanteile an seine Konkurrenten verlieren könnte, weiterhin offen. Der Markt für KI entwickelt sich schnell, und während das Training großer „Foundation“-Modelle, die modernen KI-Systemen zugrunde liegen, weiterhin eine immense Rechenleistung erfordert, könnte das sogenannte „Inference“ – das Ausführen von Abfragen gegen diese Modelle – eine Gelegenheit für Wettbewerber bieten, weniger leistungsstarke und günstigere Chips auf den Markt zu bringen.

Bisher sieht es jedoch nicht so aus, als würde Nvidia seinen Vorsprung verlieren. Bei der Bekanntgabe seiner jüngsten Quartalsergebnisse erklärte das Unternehmen, dass mehr als 40 Prozent seiner Rechenzentrumsumsätze im vergangenen Jahr auf Inference entfielen, was mehr als 33 Milliarden US-Dollar entspricht. Diese Zahl übertrifft die gesamten Rechenzentrumsumsätze von Intel um mehr als das Zweieinhalbfache.

Doch wie sich der Inference-Markt entwickeln wird, bleibt ungewiss. Zwei entscheidende Fragen stehen im Raum: Wird der KI-Markt weiterhin von einem Wettlauf um immer größere Modelle dominiert werden, und wo wird das Inference in Zukunft stattfinden?

Nvidia hat stark von diesem Wettlauf um immer größere Modelle profitiert. Jensen Huang, CEO von Nvidia, erklärte, dass jede neue Generation großer KI-Modelle „10, 20, 40-mal mehr Rechenleistung“ erfordert, was eine enorme Nachfrage nach Nvidias kommenden Blackwell-Chips garantiert. Diese neuen Prozessoren sollen auch die effizienteste Möglichkeit bieten, Inference gegen diese „multitrillionen Parameter-Modelle“ durchzuführen.

Es ist jedoch unklar, ob immer größere Modelle weiterhin den Markt dominieren werden oder ob diese Modelle irgendwann an Effizienzgrenzen stoßen. Gleichzeitig gewinnen kleinere Modelle, die ähnliche Vorteile versprechen, sowie spezialisierte Modelle für engere Anwendungsbereiche an Popularität. Meta beispielsweise hat kürzlich behauptet, dass sein neues Llama 3.1-Modell die Leistung fortschrittlicher Modelle wie OpenAIs GPT-4 trotz seiner geringeren Größe erreichen kann.

Verbesserte Trainingsmethoden und der Einsatz größerer Mengen hochwertiger Daten haben ebenfalls zur Effizienzsteigerung beigetragen. Nach dem Training können die größten Modelle auch in kleinere Versionen „destilliert“ werden. Diese Entwicklungen könnten dazu führen, dass mehr Inference-Arbeit in kleineren Rechenzentren oder auf Geräten wie Smartphones und PCs durchgeführt wird. „KI-Workloads werden sich zunehmend dorthin verlagern, wo die Daten oder die Nutzer sind“, sagt Arun Chandrasekaran, Analyst bei Gartner.

Die Zahl der Konkurrenten, die auf diesen neuen Markt abzielen, wächst rapide. Das Unternehmen Qualcomm beispielsweise war das erste, das Chips für eine neue Klasse von KI-fähigen PCs entwickelte und damit den langjährigen PC-Chip-Marktführer Intel herausforderte.

Es ist unvermeidlich, dass Nvidia Marktanteile verlieren wird, wenn KI-Inference auf Geräte verlagert wird, in denen das Unternehmen noch nicht vertreten ist, und auf die Rechenzentren von Cloud-Unternehmen, die eigene Chipdesigns bevorzugen. Um seine Position zu verteidigen, setzt Nvidia stark auf seine Softwarestrategie, die seit langem als Schutzwall um seine Hardware dient und Entwicklern die Nutzung seiner Chips erleichtert.

Nvidia arbeitet derzeit an einer breiteren Palette von Unternehmenssoftware, die Unternehmen dabei helfen soll, Anwendungen zu entwickeln, die die KI optimal nutzen. Dies würde auch die Nachfrage nach Nvidias Chips sichern. Das Unternehmen erwartet, dass der Umsatz mit dieser Software bis Ende des Jahres eine jährliche Laufzeit von 2 Milliarden US-Dollar erreichen wird. Zwar ist dies im Vergleich zu den erwarteten Gesamterlösen von über 100 Milliarden US-Dollar relativ gering, doch deutet dies auf eine zunehmende Verankerung der Technologien hin, die die „Klebrigkeit“ der Produkte erhöht.

Obwohl der KI-Chip-Markt in eine neue Phase eintreten könnte, zeigt Nvidias starker Griff keine Anzeichen von Lockerung.

Die besten Investoren haben Eulerpool

Für 2 € sichern

Favoriten unserer Leser