AI
Nvidia broni dominacji na rynku chipów AI pomimo rosnącej konkurencji
Nvidia pozostaje liderem na rozwijającym się rynku chipów AI pomimo rosnącej konkurencji i dalej umacnia swoją pozycję rynkową poprzez strategiczne rozwinięcia oprogramowania oraz rozszerzanie swoich obszarów działalności.
Nvidia, niekwestionowany lider rynku chipów AI, staje w obliczu rosnącej konkurencji. Jednak podczas gdy konkurenci mają nadzieję zdobyć przyczółek na tym szybko rozwijającym się rynku, Nvidia jak dotąd nie wykazuje żadnych oznak utraty swojej dominującej pozycji. Wręcz przeciwnie: firma nadal rozszerza swoją obecność i wpływy.
Ein entscheidender Wendepunkt im Wettbewerb um den KI-Markt könnte bevorstehen. Allerdings bleibt die Frage, ob und wann Nvidia Marktanteile an seine Konkurrenten verlieren könnte, weiterhin offen. Der Markt für KI entwickelt sich schnell, und während das Training großer "Foundation"-Modelle, die modernen KI-Systemen zugrunde liegen, weiterhin eine immense Rechenleistung erfordert, könnte das sogenannte "Inference" – das Ausführen von Abfragen gegen diese Modelle – eine Gelegenheit für Wettbewerber bieten, weniger leistungsstarke und günstigere Chips auf den Markt zu bringen.
Decydujący punkt zwrotny w konkurencji na rynku SI może być bliski. Jednak pytanie, czy i kiedy Nvidia może stracić udziały w rynku na rzecz swoich konkurentów, nadal pozostaje otwarte. Rynek SI rozwija się szybko, a podczas gdy trening dużych modeli „Foundation”, które leżą u podstaw współczesnych systemów SI, nadal wymaga ogromnej mocy obliczeniowej, tzw. „Inference” – wykonywanie zapytań względem tych modeli – może stanowić okazję dla konkurentów do wprowadzenia na rynek mniej wydajnych i tańszych układów scalonych.
Dotychczas nie wygląda na to, aby Nvidia miała stracić swoją przewagę. Podczas ogłoszenia swoich najnowszych wyników kwartalnych firma poinformowała, że ponad 40 procent jej przychodów z centrów danych w ubiegłym roku pochodziło z inferencji, co odpowiada ponad 33 miliardom dolarów. Ta liczba przewyższa całkowite przychody Intela z centrów danych ponad dwukrotnie.
Jak rozwinie się rynek inferencji, pozostaje niepewne. Dwa kluczowe pytania są nadal otwarte: Czy rynek sztucznej inteligencji nadal będzie zdominowany przez wyścig o coraz większe modele, i gdzie w przyszłości będzie miała miejsce inferencja?
Nvidia skorzystała na tym wyścigu o coraz większe modele. Jensen Huang, CEO Nvidii, stwierdził, że każda nowa generacja dużych modeli AI „wymaga 10, 20, 40 razy większej mocy obliczeniowej”, co zapewnia ogromne zapotrzebowanie na nadchodzące chipy Nvidii Blackwell. Nowe procesory mają również oferować najwydajniejszy sposób przeprowadzania wnioskowania odnośnie tych „wielotrzylionowych modeli parametrów”.
Jednakże nie jest jasne, czy coraz większe modele będą nadal dominować na rynku, czy też te modele napotkają w pewnym momencie na ograniczenia wydajności. Jednocześnie na popularności zyskują mniejsze modele, które obiecują podobne korzyści, oraz modele specjalistyczne do bardziej wąskich obszarów zastosowań. Na przykład Meta niedawno twierdziła, że jej nowy model Llama 3.1 może osiągnąć wydajność zaawansowanych modeli, takich jak GPT-4 od OpenAI, mimo swojej mniejszej wielkości.
Ulepszone metody treningowe i użycie większych ilości danych wysokiej jakości również przyczyniły się do zwiększenia wydajności. Po treningu, największe modele mogą zostać „destylowane” do mniejszych wersji. Te rozwinięcia mogą sprawić, że więcej pracy inferencyjnej będzie wykonywane w mniejszych centrach danych lub na urządzeniach takich jak smartfony i komputery PC. „Obciążenia związane z KI będą coraz bardziej przenosić się tam, gdzie znajdują się dane lub użytkownicy”, mówi Arun Chandrasekaran, analityk Gartner.
Liczba konkurentów celujących na ten nowy rynek szybko rośnie. Firma Qualcomm, na przykład, była pierwszą, która opracowała układy scalone dla nowej klasy PC-ów z funkcją sztucznej inteligencji, rzucając tym samym wyzwanie długoletniemu liderowi na rynku układów scalonych do komputerów, Intelowi.
Jest nieuniknione, że Nvidia straci udziały w rynku, gdy inferencja AI przeniesie się na urządzenia, w których firma jeszcze nie jest obecna, oraz do centrów danych firm chmurowych, które preferują własne projekty chipów. Aby obronić swoją pozycję, Nvidia mocno stawia na swoją strategię oprogramowania, która od dawna służy jako mur ochronny wokół jej sprzętu i ułatwia programistom korzystanie z jej chipów.
Nvidia arbeitet derzeit an einer breiteren Palette von Unternehmenssoftware, die Unternehmen dabei helfen soll, Anwendungen zu entwickeln, die die KI optimal nutzen. Dies würde auch die Nachfrage nach Nvidias Chips sichern. Das Unternehmen erwartet, dass der Umsatz mit dieser Software bis Ende des Jahres eine jährliche Laufzeit von 2 Milliarden US-Dollar erreichen wird. Zwar ist dies im Vergleich zu den erwarteten Gesamterlösen von über 100 Milliarden US-Dollar relativ gering, doch deutet dies auf eine zunehmende Verankerung der Technologien hin, die die „Klebrigkeit“ der Produkte erhöht.
Nvidia obecnie pracuje nad szerszą gamą oprogramowania dla przedsiębiorstw, które ma pomóc firmom w opracowywaniu aplikacji wykorzystujących sztuczną inteligencję w optymalny sposób. To zwiększyłoby także popyt na układy Nvidii. Firma spodziewa się, że przychody z tego oprogramowania osiągną roczną wartość 2 miliardów dolarów do końca roku. Jakkolwiek jest to stosunkowo niewielkie w porównaniu do oczekiwanych całkowitych przychodów przekraczających 100 miliardów dolarów, wskazuje to na coraz większą integrację technologii, która zwiększa „lepkość” produktów.
Mimo że rynek chipów AI może wkroczyć w nową fazę, silna pozycja Nvidii nie wykazuje oznak osłabienia.