Czy LinkedIn pójdzie drogą Mety? Uzasadniony interes, RODO i AI Act w kontekście generatywnej AI

Alina Sieradzińska
Alina Sieradzińska
2 października 2025AI6 min czytania

Rozwój generatywnej sztucznej inteligencji (GAI) wymusza na globalnych platformach społecznościowych wdrażanie nowych modeli przetwarzania danych użytkowników. Od 3 listopada 2025 r. LinkedIn planuje wykorzystywać treści oraz dane osobowe swoich członków do trenowania modeli generatywnej AI. Zmiana ta rodzi istotne pytania dotyczące zgodności z Rozporządzeniem o ochronie danych osobowych (RODO) oraz z Rozporządzeniem o sztucznej inteligencji (AI Act). Powstaje pytanie: czy LinkedIn powiela błędy popełnione rok wcześniej przez spółkę Meta, czy też wyciągnął wnioski z interwencji regulatorów unijnych?

Obraz główny Czy LinkedIn pójdzie drogą Mety? Uzasadniony interes, RODO i AI Act w kontekście generatywnej AI

1. Podstawa prawna oczekiwania użytkownika

LinkedIn odwołuje się do przesłanki „uzasadnionego interesu” (art. 6 ust. 1 lit. f RODO). Europejska Rada Ochrony Danych (EROD/EDPB) konsekwentnie jednak wskazuje, że przetwarzanie danych w nowych, szerokich celach – takich jak trenowanie systemów AI – może wymagać świadomej zgody użytkownika (opt-in), a nie jedynie mechanizmu opt-out. Powstaje zatem wątpliwość, czy domyślnie włączone przetwarzanie („on by default”) spełnia standardy legalności, rzetelności i przejrzystości.

W opinii EDPB z 2024 r. podkreślono, że

„przetwarzanie danych osobowych w celach trenowania modeli sztucznej inteligencji, które wykracza poza oczekiwania użytkownika, nie może być usprawiedliwione wyłącznie uzasadnionym interesem administratora”.

Prowadzi to do pytania, czy model wymagający od użytkownika ciągłego monitorowania kolejnych ustawień prywatności można uznać za zgodny z RODO. Czy interes rozwojowy platformy może, bez uprzedniej zgody, obejmować tak rozbudowane kategorie treści i metadanych?

Warsztaty n8n — Automatyzacja w praktyce

Warsztaty n8n — Automatyzacja w praktyce

Dołącz do warsztatów live i zautomatyzuj pierwsze procesy w swojej firmie razem z prowadzącym. Praktyka, nie teoria.

2. RODO: podstawa prawna, sprzeciw i „odwracalność”

Podstawową wątpliwość stanowi kwestia podstawy prawnej. LinkedIn deklaruje, że wykorzystuje treści użytkowników „jeżeli pozwala na to prawo”, faktycznie opierając się na art. 6 ust. 1 lit. f RODO oraz mechanizmie opt-out. EDPB wskazuje jednak, iż w przypadku przetwarzania danych niezwiązanego z pierwotnym celem serwisu (tj. siecią zawodową i rekrutacją) konieczna może być zgoda użytkownika – przynajmniej dla części kategorii danych lub zastosowań. Powstaje pytanie, czy sam „rozwój usług” uzasadnia włączenie treści użytkowników do zbioru treningowego GAI.

Problem 1 – opinie i feedback poza ustawieniem

Z dokumentacji LinkedIn wynika, że opinie i feedback użytkowników mogą być wykorzystywane do trenowania modeli niezależnie od ustawienia opcji „Data for Generative AI Improvement”. Aby wstrzymać ten proces, konieczne jest złożenie dodatkowego sprzeciwu. Nasuwa się pytanie, czy tak rozproszony mechanizm kontroli jest zgodny z zasadą przejrzystości i uczciwości (art. 5 RODO).

Problem 2 – nieusuwalność skutków (ograniczona „odwracalność”)

Prawo do sprzeciwu (art. 21 RODO) i prawo do usunięcia danych (art. 17 RODO) są – według deklaracji LinkedIn – wykonywane prospektywnie: wyłączenie lub sprzeciw nie „cofają” wcześniejszych treningów modeli. W konsekwencji skutki przetwarzania mogą być praktycznie nieodwracalne, gdyż dane już utrwalone w parametrach modelu nie poddają się prostemu usunięciu. Problem ten podważa realną efektywność prawa do bycia zapomnianym i rodzi pytania o adekwatne środki kompensacyjne.

Problem 3 – ochrona małoletnich

LinkedIn deklaruje wyłączenie osób poniżej 18. roku życia, jednak warunkiem jest sytuacja, w której „ma powody sądzić, że użytkownik jest niepełnoletni”. Taki próg detekcji może nie spełniać standardu privacy by design (art. 5 i art. 25 RODO) oraz oczekiwań AI Act w zakresie szczególnej ochrony grup wrażliwych. W praktyce brak silnego, systemowego potwierdzania wieku zwiększa ryzyko niezamierzonego włączenia danych małoletnich do korpusu treningowego.

3. Minimalizacja, przejrzystość i zakres danych

Zakres danych przeznaczonych do trenowania modeli ma być szeroki: od danych profilowych, poprzez treści publikowane w serwisie, aż po aktywność grupową i prompty wykorzystywane w funkcjach GAI. Deklaracja ograniczania do minimum może być kwestionowana, jeżeli obejmuje całe CV, artykuły i komentarze użytkowników. Istotne pozostaje również pytanie o okres przechowywania danych i ich faktyczną „odwracalność”.

W tym kontekście istotne są także własne objaśnienia LinkedIn dotyczące gromadzenia i przetwarzania danych użytkowników:

„Podobnie jak w przypadku większości funkcji na LinkedIn, gromadzimy i wykorzystujemy (lub przetwarzamy) dane dotyczące korzystania przez Ciebie z platformy, w tym dane osobowe. Może to uwzględniać dane dotyczące wykorzystania generatywnej AI (modeli AI wykorzystywanych do tworzenia treści) lub innych funkcji AI, Twoje posty i artykuły, zapisane odpowiedzi na oferty pracy i CV, częstotliwość korzystania z serwisu LinkedIn, preferencje językowe oraz wszelkie opinie przekazane naszym drużynom.”

Powyższy katalog potwierdza szeroki zakres kategorii danych, co wzmacnia znaczenie zasady minimalizacji (art. 5 ust. 1 lit. c RODO), precyzyjnej informacji o celach i okresach przechowywania oraz transparentnych mechanizmów sprzeciwu.

4. AI Act jako dodatkowa warstwa obowiązków

Rozporządzenie AI Act (2024/1689) nie zastępuje RODO, lecz nakłada dodatkowe obowiązki: przejrzystość, prowadzenie dokumentacji i audytów, zarządzanie ryzykiem oraz szczególną ochronę grup wrażliwych. Jeżeli przetwarzanie danych do trenowania GAI może naruszać RODO, wdrożenie nie będzie zgodne również z AI Act.

5. Lekcja z przypadku Mety

W 2024 r. Meta ogłosiła plany trenowania systemów AI na danych publicznych użytkowników UE, w modelu opt-out i przy powołaniu się na uzasadniony interes. Po sprzeciwie organów nadzorczych (DPC IE we współpracy z EDPB) plany te zostały wstrzymane. W kwietniu 2025 r. Meta wznowiła projekt po modyfikacjach: wyłączeniu prywatnych wiadomości, wykluczeniu osób poniżej 18. roku życia, wprowadzeniu powiadomień i formularza sprzeciwu, a także ograniczeniu do treści publicznych osób dorosłych. Przypadek ten pokazuje kierunek oczekiwań regulatorów: zawężenie zakresu danych, większą przejrzystość oraz realne mechanizmy sprzeciwu.

🔎 Podobny problem pojawił się wcześniej w przypadku Mety. Zobacz analizę, jak Meta próbowała wykorzystać dane użytkowników z UE do trenowania AI i jakie wątpliwości prawne to wywołało: Między etyką a algorytmem: dane użytkowników Meta a trening AI

Jak wyłączyć opcję „Data for Generative AI Improvement” (krok po kroku)

Na komputerze (www):

  • Kliknij Zdjęcie profilowe (prawy górny róg) → Settings & Privacy / Ustawienia i prywatność.

  • Wejdź w Data privacy / Prywatność danych.

  • Wybierz Data for Generative AI Improvement / Dane do ulepszania generatywnej AI.

  • Przełącz ustawienie na Off (wyłącz).

W aplikacji mobilnej:

  • Zdjęcie profiloweSettings.

  • Data privacyData for Generative AI ImprovementOff.

Zasadnicze pytanie brzmi: czy „uzasadniony interes” stanie się narzędziem odpowiedzialnej innowacji, czy też wymaga uzupełnienia przez zgodę użytkownika, pełną przejrzystość oraz realną możliwość sprzeciwu?

Ostatecznie, czy wdrożenie planowane na listopad 2025 r. okaże się przykładem harmonizacji technologii z ochroną praw jednostki, czy też kolejnym etapem europejskiej debaty, w której to regulatorzy przypomną, iż zaufanie stanowi kapitał równie cenny jak dane?

Materiały pomocnicze

Tagi

#LinkedIn#Generatywna AI#RODO#AI Act#Prywatność danych#Social Media