Początek trilogu o AIA

podsumowanie stanowiska negocjacyjnego Parlamentu Europejskiego

Zobacz wszystkie / Znaleziono 303
Prawo, Biuro Zarządu

Początek trilogu o AIA

Jarosław Petz
Langas Regtech, 26/06/2023

W połowie czerwca 2023. Parlament Europejski zatwierdził swój mandat negocjacyjny („Stanowisko PE”) w sprawie wniosku UE dotyczącego rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (“Akt o sztucznej inteligencji” czyli “AIA”). Głosowanie w PE oznacza, że instytucje UE mogą teraz rozpocząć negocjacje trójstronne (Rada zatwierdziła swój mandat negocjacyjny w grudniu 2022 r.). Ostateczna wersja AI Act spodziewana jest przed końcem 2023 roku.

Wydanie stanowiska Parlamentu Europejskiego rozpoczyna trilog.

Trilog to etap uzgodnieniowy, w którym Parlament, Rada i Komisja Europejska podejmują negocjacje w celu osiągnięcia porozumienia w sprawie treści końcowego aktu prawodawczego (w tym wypadku Artificial Intelligence Act – AIA). Negocjacje odbywają się na podstawie stanowiska Parlamentu oraz opinii i sugestii Rady. Podczas trilogu przedstawiciele Parlamentu, Rady i Komisji będą spotykać się, aby omówić różnice i próbować znaleźć kompromisowe rozwiązania.

Po zakończeniu trilogu, jeśli Parlament, Rada i Komisja osiągną porozumienie, następuje procedura formalna, w której stanowisko Parlamentu i Rady zostaje poddane ostatecznej procedurze przyjęcia. W przypadku przyjęcia aktu prawodawczego przez obie instytucje, staje się on prawnie wiążący dla państw członkowskich i jest implementowany w prawodawstwie krajowym.

W sprawie AIA, Parlament Europejski zaproponował szereg istotnych poprawek do pierwotnego tekstu Komisji, który pochodzi z 2021 roku.

Poniżej przedstawiamy niektóre z kluczowych zmian wprowadzonych przez PE:

Zmiany w kluczowych definicjach

PE wprowadził szereg istotnych zmian w definicjach stosowanych w ustawie o sztucznej inteligencji (art. 3). Zgodnie ze stanowiskiem PE:

  • Definicja „systemu AI” została dostosowana do definicji systemu AI OECD. System sztucznej inteligencji jest teraz definiowany jako „system oparty na maszynach, który jest zaprojektowany do działania na różnych poziomach autonomii i który może, w celach jawnych lub ukrytych, generować dane wyjściowe, takie jak prognozy, zalecenia lub decyzje, które wpływają na środowisko fizyczne lub wirtualne”.
  • Użytkownicy systemów AI są teraz nazywani „podmiotami wdrażającymi”.

Tekst PE zawiera ponadto szereg nowych definicji, w tym:

  • „Osoby dotknięte”, czyli „każda osoba fizyczna lub grupa osób, które podlegają systemowi AI lub na które system AI ma inny wpływ”.
  • „Model podstawowy”, który oznacza „model sztucznej inteligencji, który jest szkolony na szerokich danych na dużą skalę, jest zaprojektowany pod kątem ogólności wyników i może być dostosowany do szerokiego zakresu charakterystycznych zadań”. Dostawcy modeli podstawowych podlegają obecnie szeregowi szczegółowych obowiązków wynikających z ustawy o sztucznej inteligencji.
  • „System sztucznej inteligencji ogólnego przeznaczenia”, który jest „systemem sztucznej inteligencji, który może być używany i dostosowywany do szerokiego zakresu zastosowań, dla których nie został celowo i specjalnie zaprojektowany”.

Ogólne zasady mające zastosowanie do systemów AI

Stanowisko PE ustanawia zestaw sześciu podstawowych zasad, które mają zastosowanie do wszystkich systemów sztucznej inteligencji regulowanych przez AIA. Zasady te to:

  • ludzka odpowiedzialność i nadzór;
  • odporność techniczna i bezpieczeństwo;
  • prywatność i zarządzanie danymi;
  • przejrzystość;
  • różnorodność, niedyskryminacja i sprawiedliwość; oraz
  • dobrostan społeczny i środowiskowy.

Klasyfikacja systemów AI

PE zaproponował istotne zmiany w wykazie zakazanych praktyk/systemów AI.

Nowe zakazy obejmują: (1) biometryczne systemy kategoryzacji, które kategoryzują osoby fizyczne zgodnie z wrażliwymi lub chronionymi atrybutami lub cechami lub w oparciu o wnioskowanie o tych atrybutach lub cechach; oraz (2) systemy AI, które tworzą lub rozszerzają bazy danych rozpoznawania twarzy poprzez nieukierunkowane pobieranie obrazów twarzy z Internetu lub nagrań CCTV.

Ponadto Parlament Europejski rozszerzył listę systemów i aplikacji AI, które należy uznać za obarczone wysokim ryzykiem. Lista systemów wysokiego ryzyka w stanowisku PE obejmuje na przykład niektóre systemy sztucznej inteligencji wykorzystywane przez duże platformy mediów społecznościowych do rekomendowania treści użytkownikom.

Zgodnie z zasadami zaproponowanymi przez PE, dostawcy niektórych systemów AI mogą obalić domniemanie, że system powinien być uznany za system AI wysokiego ryzyka. Wymagałoby to złożenia zawiadomienia do organu nadzorczego lub urzędu ds. sztucznej inteligencji (tego ostatniego, jeśli system sztucznej inteligencji ma być używany w więcej niż jednym państwie członkowskim), które dokonają przeglądu i odpowiedzą w ciągu trzech miesięcy, aby wyjaśnić, czy uważają system sztucznej inteligencji za obarczony wysokim ryzykiem.

Stanowisko PE nakłada ponadto szczególne wymogi na generatywne systemy sztucznej inteligencji (jak na przykład popularny ChatGPT), takie jak obowiązek ujawnienia, że treści zostały wygenerowane przez sztuczną inteligencję, zaprojektowanie systemu sztucznej inteligencji w sposób uniemożliwiający generowanie nielegalnych treści oraz publikowanie podsumowań danych chronionych prawem autorskim wykorzystywanych do szkolenia.

Korekty obowiązków w kontekście systemów AI wysokiego ryzyka

PE wprowadza również znaczące zmiany w obowiązkach dostawców systemów sztucznej inteligencji wysokiego ryzyka, wymagając od nich np:

  • Zapewnienia, że osoby fizyczne odpowiedzialne za ludzki nadzór nad systemami AI wysokiego ryzyka są w szczególności świadome ryzyka automatyzacji lub tendencyjności systemowych potwierdzeń.
  • Dostarczania specyfikacji danych wejściowych lub wszelkich innych istotnych informacji w zakresie wykorzystywanych zbiorów danych, w tym ich ograniczeń i założeń, z uwzględnieniem zamierzonego celu oraz przewidywalnego i racjonalnie przewidywalnego niewłaściwego użycia systemu AI.
  • Upewnienie się, że system sztucznej inteligencji wysokiego ryzyka spełnia wymogi dostępności.

Ponadto obowiązki podmiotów wdrażających systemy sztucznej inteligencji wysokiego ryzyka zostały znacznie rozszerzone i obecnie obejmują:

  • W przypadku niektórych systemów AI – informowanie osób fizycznych o tym, że podlegają one korzystaniu z systemów AI wysokiego ryzyka oraz że mają prawo do uzyskania wyjaśnień na temat wyników działania systemu.
  • Przed oddaniem do użytku lub użyciem systemu sztucznej inteligencji wysokiego ryzyka w miejscu pracy podmioty wdrażające konsultują się z przedstawicielami pracowników i informują pracowników, że będą podlegać systemowi.
  • Przeprowadzić ocenę wpływu na prawa podstawowe (patrz poniżej).

Obowiązek przeprowadzenia oceny skutków w zakresie praw podstawowych.

Jak wspomniano powyżej, przed użyciem systemu sztucznej inteligencji wysokiego ryzyka niektóre podmioty wdrażające będą zobowiązane do przeprowadzenia oceny wpływu na prawa podstawowe. Ocena ta powinna obejmować co najmniej następujące elementy:

  • jasny zarys celu, w którym system będzie używany;
  • jasny zarys zamierzonego zakresu geograficznego i czasowego korzystania z systemu;
  • kategorie osób fizycznych i grup, na które może mieć wpływ korzystanie z systemu;
  • weryfikację, czy korzystanie z systemu jest zgodne z odpowiednimi przepisami unijnymi i krajowymi dotyczącymi praw podstawowych;
  • racjonalnie przewidywalny wpływ korzystania z systemu sztucznej inteligencji wysokiego ryzyka na prawa podstawowe;
  • szczególne ryzyko szkody, które może mieć wpływ na osoby zmarginalizowane lub grupy szczególnie wrażliwe;
  • racjonalnie przewidywalny negatywny wpływ korzystania z systemu na środowisko;
  • szczegółowy plan, w jaki sposób zidentyfikowane szkody i negatywny wpływ na prawa podstawowe zostaną złagodzone; oraz
  • system zarządzania, który wdroży podmiot wdrażający, w tym nadzór nad ludźmi, rozpatrywanie skarg i dochodzenie roszczeń.

W procesie przygotowywania oceny skutków w zakresie praw podstawowych od podmiotów wdrażających może być wymagane nawiązanie współpracy z organami nadzorczymi i zewnętrznymi zainteresowanymi stronami, takimi jak agencje ochrony konsumentów i agencje ochrony danych.

Wyłączenie niektórych nieuczciwych warunków umownych w umowach AI z MŚP lub startupami

Stanowisko PE wprowadza nowy przepis ograniczający prawo kontrahenta do jednostronnego narzucania pewnych warunków umownych związanych z dostawą narzędzi, usług, komponentów lub procesów, które są wykorzystywane lub zintegrowane z systemem sztucznej inteligencji wysokiego ryzyka, lub środków zaradczych w przypadku naruszenia lub rozwiązania zobowiązań związanych z tymi systemami w umowach z MŚP lub startupami.

Przykłady niedozwolonych postanowień obejmują warunki umowne, które:

  • wyłączają lub ograniczają odpowiedzialność strony, która jednostronnie narzuciła warunek, za działania umyślne lub rażące niedbalstwo;
  • wyłączają środki zaradcze przysługujące stronie, na którą jednostronnie narzucono warunek, w przypadku niewykonania zobowiązań umownych lub odpowiedzialności strony, która jednostronnie narzuciła warunek, w przypadku naruszenia tych zobowiązań; oraz
  • przyznają stronie, która jednostronnie narzuciła warunek, wyłączne prawo do ustalenia, czy dostarczona dokumentacja techniczna i informacje są zgodne z umową lub do interpretacji jakiegokolwiek warunku umowy.

Środki wspierające innowacje

Rozdział V projektu AIA, który zawiera środki wspierające innowacje (w tym tzw. sandboxy dotyczące regulacji AI), został w stanowisku PE rozszerzony i wyjaśniony. Jeden z nowych przepisów wymaga od państw członkowskich UE promowania badań i rozwoju rozwiązań AI, które wspierają wyniki korzystne społecznie i środowiskowo, takie jak

  • rozwiązania zwiększające dostępność dla osób niepełnosprawnych;
  • zwalczanie nierówności społeczno-ekonomicznych oraz
  • osiąganie celów w zakresie zrównoważonego rozwoju i ochrony środowiska.

Grzywny

Stanowisko PE znacząco zmienia grzywny, które mogą być nakładane na mocy ustawy o sztucznej inteligencji. PE proponuje, aby:

  • Nieprzestrzeganie przepisów dotyczących zakazanych praktyk związanych z AI podlegało karom administracyjnym wysokości do 40 000 000 EUR lub, jeżeli sprawca jest przedsiębiorstwem, w wysokości do 7% jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
  • Nieprzestrzeganie zasad określonych w art. 10 (dane i zarządzanie danymi) i art. 13 (przejrzystość i dostarczanie informacji użytkownikom) podlegało karze administracyjnej wysokości do 20 000 000 EUR lub, jeżeli sprawcą jest spółka, do 4% jej całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
  • Nieprzestrzeganie innych wymogów i obowiązków wynikających z ustawy o sztucznej inteligencji podlegało administracyjnej karze pieniężnej wysokości do 10 000 000 EUR lub, jeżeli sprawcą jest spółka, do 2% jej całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
  • Dostarczenie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym i właściwym organom krajowym w odpowiedzi na wniosek podlegało administracyjnej karze pieniężnej do 5 000 000 EUR lub, jeżeli sprawcą jest spółka, do 1% jej całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.

Należy również zauważyć, że w stanowisku PE proponuje się, aby kary (w tym grzywny) wynikające z ustawy o sztucznej inteligencji, a także związane z nimi koszty postępowania sądowego i roszczenia odszkodowawcze, nie mogły podlegać klauzulom umownym ani innym formom umów o podziale obciążeń między dostawcami a dystrybutorami, importerami, podmiotami wdrażającymi lub innymi stronami trzecimi.

Wzmocnione środki ochrony prawnej

W AIA wprowadzono nowy rozdział dotyczący środków zaradczych dostępnych dla osób poszkodowanych w obliczu potencjalnych naruszeń zasad wynikających z ustawy o sztucznej inteligencji. Szczególnie istotne jest wprowadzenie podobnego do RODO prawa do złożenia skargi do organu nadzorczego.


Z NASZYCH SZKOLEŃ KORZYSTAJĄ LIDERZY RYNKU