W ostatnich tygodniach sprawa New York Times (NYT) przeciwko Microsoft i OpenAI na nowo przyciągnęła uwagę branży technologicznej i prawnej. W trwającym od niespełna dwóch lat postępowaniu, 13 maja 2025 roku sędzia sądu dla dystryktu południowego Nowego Jorku wydała postanowienie nakazujące OpenAI zachowanie i segregację wszelkich danych wyjściowych – tj. historii czatów prowadzonych przez użytkowników – włącznie z tymi, które w normalnych okolicznościach zostałyby usunięte. Zasądzony środek zabezpieczający może mieć znaczące konsekwencje z punktu widzenia naruszeń przepisów RODO.
Sprawa New York Times przeciwko Microsoft et. al. jest jedną z tzw. „Newspaper Cases”. Dwie kolejne sprawy zaliczane do tego grona to Daily News przeciwko Microsoft oraz Center for Investigative Reporting przeciwko Microsoft. W wymienionych sporach strony powodowe zarzucają pozwanym naruszanie ich praw autorskich poprzez nielicencjonowane i nieautoryzowane wykorzystanie tekstów objętych prawem autorskim do trenowania dużych modeli językowych sztucznej inteligencji.
13 maja 2025 r., sędzia sądu dla dystryktu południowego Nowego Jorku zasądziła, na wniosek strony powodowej, środek zabezpieczający w postaci nakazu bezterminowego przechowywania historycznych czatów użytkowników. Środek wyłącza zastosowanie dotychczasowej polityki przetwarzania danych przez OpenAI, zgodnie z którą po usunięciu czatu przez użytkownika, firma przechowywała go tylko przez 30 dni.
Celem ma być zabezpieczenie materiałów dowodowych niezbędnych do rzetelnego prowadzenia procesu. W opinii sędzi, w braku zasądzonego środka, OpenAI nigdy nie przestałoby usuwać dowodów mających znaczenie dla roszczeń New York Times. Ponadto, wzięła pod uwagę argument strony powodowej, iż niektórzy użytkownicy OpenAI wprowadzają chronione prawem autorskim artykuły jako komendy do ChatuGPT, a także proszą go o wygenerowanie słowo-w-słowo takich samych artykułów – tym samym naruszając prawa autorskie przysługujące New York Times.
Zaznaczyć należy, iż w wydanym postanowieniu, sędzia wprost wyłączyła możliwość usuwania danych z uwagi na „liczne prawa i regulacje dotyczące prywatności”. Oznacza to, że w jej opinii roszczenia strony powodowej związane z naruszeniem praw autorskich wiodą prymat nad prawem użytkowników do prywatności.
Postanowienie nakazujące bezterminowe przechowywanie danych znajduje zastosowanie do następujących produktów OpenAI:
Tym samym, wyłączone z zakresu postanowienia pozostają:
Ogólne Rozporządzenie o Danych Osobowych przyznaje podmiotom tzw. prawo do bycia zapomnianym. Na wniosek danej osoby fizycznej administrator, jakim jest OpenAI, powinien bez zbędnej zwłoki usunąć jej dane osobowe. Jedynym wyjątkiem przewidzianym w Rozporządzeniu jest przechowywanie danych na potrzeby trwającego postępowania sądowego. Jednakże, kwestia czy to wyłączenie prawa do bycia zapomnianym obejmuje również spory przed sądami spoza UE pozostaje sporna. Prawdopodobnym jest więc, że postanowienie sądu w Nowym Jorku de facto obliguje OpenAI do naruszenia zobowiązań, które nakłada na firmę RODO.
Brak wzięcia pod uwagę przez sądy w Stanach Zjednoczonych zagranicznych przepisów o ochronie danych osobowych nie jest nowością. Już w 1987 roku Sąd Najwyższy Stanów Zjednoczonych w sprawie Aerospatiale uznał, iż sądy amerykańskie przy zasądzaniu zabezpieczenia nie są w żaden sposób ograniczone zagranicznym prawem o ochronie prywatności.
Opisywany spór jest jednym z wielu toczących się obecnie w Stanach Zjednoczonych postępowań dotyczących naruszenia praw autorskich przez duży model językowy. Wpisuje się on w szerszą dyskusję dotyczącą wynagrodzenia dla autorów za wykorzystanie ich utworów do trenowania modeli sztucznej inteligencji.
Zakaz usuwania danych jest środkiem znanym i stosowanym jako standardowa praktyka mająca na celu zabezpieczenie materiałów dowodowych na czas trwania sporu. Jednak w kontekście systemów AI, które przetwarzają ogromne ilości informacji, jego zastosowanie wydaje się wymagać szczególnej ostrożności. Użytkownicy coraz częściej korzystają ze sztucznej inteligencji do przetwarzania różnorodnych danych. Wpisują w czatach zapytania natury osobistej – dotyczące życia prywatnego, kwestii rodzinnych czy zdrowotnych. W tego rodzaju promptach i interakcjach mogą pojawiać się dane wrażliwe, które powinny podlegać szczególnej ochronie (i na gruncie RODO takiej ochronie podlegają).
W sprawie NYT z jednej strony mamy prawo twórców do ochrony swojej własności intelektualnej, a z drugiej – obowiązki administratorów danych, takie jak minimalizacja danych i ograniczenie okresu ich przechowywania. W tym kontekście, wyważenie ochrony praw twórców i prywatności użytkowników jest istotnym wyzwaniem prawnym i etycznym, które powinno być uwzględnianie już na etapie projektowania systemów opartych na sztucznej inteligencji.
Warto obserwować, jak ten precedens wpłynie na przyszłe regulacje dotyczące wykorzystywania materiałów chronionych prawem autorskim jako danych treningowych modeli AI.
Źródła: