Pojawienie się Deepseek AI, modelu opracowanego chińskiego, wywołało znaczące kontrowersje i obawy w amerykańskim branży technologicznej. Podejrzenie, że modele Deepseeka mogły zostać przeszkolone przy użyciu danych z Openai, doprowadziło do ostrej reakcji zarówno liderów branży, jak i liczb politycznych. Donald Trump określił DeepSeek jako „budzenie” dla amerykańskiego sektora technologicznego, szczególnie po Nvidii, kluczowym graczu w sprzęcie AI, doświadczył historycznego spadku rynkowej o 600 miliardów dolarów. Efekt Ripple był odczuwalny w całej branży, a główne firmy, takie jak Microsoft, Meta Platforms, a firma macierzysta Google Alphabet również odnotowują spadki cen akcji.
Model R1 Deepseek, zbudowany na open source Deepseek-V3, twierdzi, że oferuje opłacalną alternatywę dla modeli Western AI, takich jak Chatgpt, ze znacznie niższymi wymaganiami mocy obliczeniowej i zgłoszonym kosztem szkolenia zaledwie 6 milionów dolarów. Doprowadziło to do sceptycyzmu wobec roszczeń i zadawanych pytań na temat ogromnych inwestycji, które w organizowaniu AI dokonują amerykańscy technologiczni. Popularność modelu wzrosła, przenosząc listy przebojów bezpłatnych aplikacji w USA wśród dyskusji na temat jego skuteczności.
Openai i Microsoft badają teraz, czy Deepseek użył interfejsu API Openai do zintegrowania modeli Openai z własnymi, praktyką znaną jako destylacja, która narusza warunki usług Openai. Openai podkreślił swoje wysiłki na rzecz ochrony własności intelektualnej i ściśle współpracuje z rządem USA w celu ochrony swojej technologii przed konkurentami i przeciwnikami.
David Sacks, AI CZAR Trumpa, podkreślił dowody sugerujące, że Deepseek destylował wiedzę z modeli Openai, przewidując, że wiodące amerykańskie firmy AI podejmą kroki w celu zapobiegania takich praktyk w przyszłości. Jednak sytuacja spotkała się z ironią i krytyką, szczególnie komentatora technologii Eda Zitrona, który wskazał własną historię Openai polegającej na korzystaniu z treści internetowych chronionych prawem autorskim do szkolenia chatgpt.
Openai wcześniej argumentował, że szkolenie modeli AI bez materiałów chronionych prawem autorskim jest „niemożliwe”, stanowisko, które podsyciło trwające debaty na temat etyki i legalności danych szkoleniowych AI. Kwestia ta została wciągnięta w światło reflektorów z procesem „New York Times” i grupie autorów, w tym George RR Martin, przeciwko Openai i Microsoftowi za domniemane niewłaściwe wykorzystanie treści chronionych prawem autorskim. Ponadto amerykańskie biuro praw autorskich, że sztuka generowana przez AI nie może być chroniona prawem autorskim, podkreśla złożony krajobraz prawny otaczający sztuczną inteligencję i własność intelektualną.