OpenAI obviňuje DeepSeek z nelegálneho používania svojich modelov.

Der KI-Zar des Weißen Hauses, David Sacks, spricht die Möglichkeit des Diebstahls geistigen Eigentums an.

30. 1. 2025 2:30
Eulerpool News 30. 1. 2025, 2:30

OpenAI podľa vlastných údajov našla dôkazy o tom, že čínska startupová firma DeepSeek neoprávnene používala modely americkej spoločnosti na tréning vlastnej open-source umelej inteligencie. Tieto obvinenia ďalej zintenzívňujú diskusiu o ochrane duševného vlastníctva v sektore umelej inteligencie.

Podľa OpenAI existujú náznaky tzv. „Distillation“, metódy, pri ktorej vývojári zvyšujú výkon menších modelov pomocou výstupu väčších a výkonnejších modelov. To umožňuje dosiahnuť porovnateľné výsledky pri výrazne nižších nákladoch. Používanie takýchto techník bez povolenia by mohlo porušiť podmienky používania OpenAI, ktoré zakazujú používať „výstupy na vývoj konkurenčných modelov“. Podrobnosti o dôkazoch spoločnosť nechcela zverejniť.

David Sacks, ktorý je pod americkým prezidentom Donaldom Trumpom zodpovedný za KI a kryptopolitiku, sa v utorok na Fox News vyjadril k obvineniam: „Existuje technika nazývaná Distillation […], pri ktorej sa model učí od iného modelu a extrahuje poznatky rodičovského modelu. Existujú významné dôkazy o tom, že DeepSeek presne to urobil s modelmi OpenAI.“ Sacks však neposkytol žiadne konkrétne dôkazy pre svoje tvrdenie.

DeepSeek zatiaľ na obvinenia nereagoval. Spoločnosť nedávno vzbudila rozruch vydaním svojho modelu R1, ktorý preukázal pôsobivé kognitívne schopnosti a dosiahol porovnateľné výsledky ako popredné americké modely – napriek výrazne nižším finančným a technickým zdrojom. DeepSeek tvrdí, že svoj model V3 vytrénoval len s 2 048 grafickými kartami Nvidia H800 a rozpočtom 5,6 milióna amerických dolárov – čo je zlomok nákladov, ktoré OpenAI a Google vynakladajú na podobne výkonné modely.

Odborníci z odvetvia považujú za celkom bežné, že čínske aj americké startupy sa riadia výsledkami popredných KI modelov. Podľa Ritwika Guptu, výskumníka KI na Kalifornskej univerzite v Berkeley, je „bežnou praxou, že startupy a akademické inštitúty využívajú výstupy z už vytrénovaných veľkých jazykových modelov (LLMs) na zlepšenie vlastných modelov“. To môže výrazne znížiť nákladný ľudský proces dolaďovania („human feedback alignment“).

Presne tu spočíva pre lídrov trhu, ako je OpenAI, ústredný problém: Kým investujú milióny do optimalizácie svojich modelov, menší aktéri môžu pomocou techník destilácie a šikovného riadenia čipov trénovať svoje modely lacnejšie – a tak dohnať. OpenAI zdôraznila vo vyhlásení, že neustále prijíma protiopatrenia na ochranu svojho duševného vlastníctva a úzko spolupracuje s vládou USA, aby ochránila pokročilé modely pred neoprávneným použitím.

Paradoxne, OpenAI momentálne čelí podobným obvineniam. Viacerí vydavatelia novín, vrátane New York Times, ako aj známi autori obviňujú spoločnosť z používania ich obsahu na tréning modelov AI bez povolenia. V prebiehajúcich žalobách žalobcovia argumentujú, že OpenAI profitovalo zo svojich modelov zo zákonom chránených textov, bez kompenzácie autorom.

Terminal Access

Urob najlepšie investície svojho života

Bloomberg Fair Value
20M Securities
50Y History
10Y Estimates
8.000+ News Daily
Už od 2 eur sa môžete zabezpečiť

Novinky