Společnost OpenAI obviňuje DeepSeek z používání destilací svých vlastních modelů. Destilace je běžná strategie a DeepSeek má několik destilací modelů Llama nebo Qwen.
Modely umělé inteligence společnosti DeepSeek přitahují pozornost svým výkonem, který se vyrovná gigantům, jako jsou ChatGPT, Claude nebo Gemini. Jejich úspěch však vzbudil jak chválu, tak skepsi. Za prvé, někteří zpochybňují, že jejich vývoj stál pouhých 5,6 milionu dolarů (přibližně 134 milionů korun). Nyní společnost OpenAI vznesla nové obvinění: z neoprávněného využívání svých dat prostřednictvím techniky známé jako „destilace modelu“.
V oblasti umělé inteligence je destilace strategie používaná k optimalizaci modelů. Spočívá v trénování menšího modelu (s menším počtem parametrů a obecně méně schopného) z informací většího, pokročilejšího modelu. Tímto způsobem se dosáhne efektivnějšího a rychlejšího systému, aniž by se výrazně snížil výkon. Mluvčí společnosti OpenAI sdělil, že společnost DeepSeek by tuto techniku použila u modelů OpenAI.
Kdo vlastně okrádá koho
Společnost DeepSeek použila tuto techniku spolu s dalšími, jako je posilovací učení, aby dosáhla vysoké úrovně výkonu, nebo architekturu „Mixture of Experts“, která umožňuje modelu používat pro každou úlohu pouze malou podmnožinu svých komponentů („expertů“) namísto spuštění celého systému, což výrazně snižuje náklady na energii a výpočetní výkon.
Problémem je, že OpenAI výslovně zakazuje používat své modely pro účely destilace. V jejích podmínkách poskytování služeb se uvádí, že její služby nelze kopírovat a že odpovědi generované jejími modely nelze použít k vývoji konkurenčních systémů. Podle informací zveřejněných agenturou Bloomberg již společnosti OpenAI a Microsoft v minulosti vyšetřovaly společnost DeepSeek kvůli údajnému porušování těchto pravidel. Vývojáři DeepSeek jsou podezřelí z toho, že využívali rozhraní API společnosti OpenAI k provádění destilace modelů, čímž by tyto podmínky porušili.
David Sacks, přední osobnost v oblasti umělé inteligence v týmu Donalda Trumpa, prohlásil, že existují důkazy, že DeepSeek využíval data OpenAI. Společnost vedená Samem Altmanem tvrdí, že několik společností, zejména v Číně, se neustále snaží replikovat modely předních amerických firem zabývajících se umělou inteligencí.
Toto obvinění však vyvolává debatu o dvojích standardech v tomto odvětví. Společnost OpenAI byla vyzdvihována za neoprávněné využívání velkých objemů internetových dat, včetně přepisu milionů hodin obsahu YouTube k tréninku GPT-4. Výzkumnice Timnit Gebruová, známá svým střetem se společností Google v otázkách etiky umělé inteligence, kritizovala OpenAI za to, že požaduje dodržování vlastních pravidel, zatímco podle jejího názoru nerespektuje pravidla ostatních.
Tento konflikt není ojedinělý v případě OpenAI a DeepSeek. Několik společností zabývajících se umělou inteligencí bylo obviněno z toho, že trénovaly modely s veřejným obsahem bez souhlasu jejich tvůrců. Mnohé z nich tuto praxi zdůvodňují pojmem „spravedlivé použití“, ale hranice mezi přípustným a nezákonným zůstává nejasná. To vedlo k vlně žalob pro možné porušení autorských práv, což zdůrazňuje potřebu jasné a spravedlivé regulace v tomto odvětví.