AI
OpenAI obviňuje DeepSeek z neoprávněného používání svých modelů
Der KI-Zar des Weißen Hauses, David Sacks, spricht die Möglichkeit des Diebstahls geistigen Eigentums an.
OpenAI podle vlastních údajů nalezla důkazy o tom, že čínský start-up DeepSeek neoprávněně využíval modely americké společnosti k trénování své vlastní open-source KI. Obvinění dále rozdmýchávají diskusi o ochraně duševního vlastnictví v sektoru KI.
Podle OpenAI existují známky takzvané „destilace“, metody, při které vývojáři optimalizují výkon menších modelů prostřednictvím výstupu větších, výkonnějších modelů. To umožňuje srovnatelné výsledky při výrazně nižších nákladech. Použití těchto technik bez povolení by mohlo porušovat podmínky užívání OpenAI, které zakazují používání „výstupu k vývoji konkurenčních modelů“. Společnost nesdělila podrobnosti o důkazech.
David Sacks, který je za vlády amerického prezidenta Donalda Trumpa odpovědný za politiku v oblasti KI a kryptoměn, se v úterý vyjádřil na Fox News k obviněním: „Existuje technika nazývaná Distillation […], při níž se model učí z jiného modelu a extrahuje znalosti z mateřského modelu. Existují významné důkazy o tom, že DeepSeek přesně toto provedl s modely OpenAI.“ Sacks však neposkytl žádné konkrétní důkazy pro svá tvrzení.
DeepSeek dosud nereagoval na obvinění. Společnost nedávno vzbudila pozornost zveřejněním svého modelu R1. Tento model prokázal působivé kognitivní schopnosti a dosáhl srovnatelných výsledků jako přední modely z USA – i přes výrazně nižší finanční a technické zdroje. DeepSeek tvrdí, že svůj model V3 vyškolil pouze s 2 048 grafickými kartami Nvidia H800 a rozpočtem 5,6 milionu dolarů – což je zlomek nákladů, které OpenAI a Google vynakládají na podobně výkonné modely.
Odborníci z oboru považují za zcela běžné, že jak čínské, tak americké start-upy se orientují podle výsledků předních AI modelů. Podle Ritwika Gupty, výzkumníka AI na University of California, Berkeley, je „běžnou praxí, že start-upy a akademické instituce využívají výstupy již vytrénovaných velkých jazykových modelů (LLM) k vylepšení vlastních modelů“. To může výrazně snížit nákladný proces lidského doladění („human feedback alignment“).
Problém pro tržní lídry jako OpenAI spočívá právě zde: Zatímco investují miliony do optimalizace svých modelů, menší hráči mohou díky technikám distilace a chytrému managementu čipů své modely trénovat levněji – a tím dohánět. OpenAI ve svém prohlášení zdůraznilo, že průběžně přijímá opatření na ochranu svého duševního vlastnictví a úzce spolupracuje s americkou vládou, aby pokročilé modely chránilo před neoprávněným použitím.
Ironií je, že OpenAI v současné době čelí podobným obviněním. Několik vydavatelství, včetně New York Times, stejně jako renomovaní autoři obviňují společnost, že použila jejich obsah k trénování modelů AI bez povolení. V probíhajících žalobách žalobci tvrdí, že OpenAI profitovala ze svých modelů chráněných textů bez kompenzace autorům.