Ten blog korzysta z plików cookies na zasadach określonych tutaj
Zamknij
20.09.2023
NEW TECH & INNOWACJE

Projekt Aktu o sztucznej inteligencji. Najważniejsze założenia w świetle stanowiska Parlamentu Europejskiego

Sztuczna inteligencja i rozwiązania na niej oparte mają aktualnie wpływ na każdy aspekt życia człowieka – począwszy od rekomendacji filmów czy seriali, przez edukację, transport, na ochronie zdrowia i bezpieczeństwie kończąc. Nie dziwi więc, że wykorzystanie systemów sztucznej inteligencji rodzić może obawy i wątpliwości z perspektywy prawa.

W związku z tym Unia Europejska już od jakiegoś czasu podejmuje się szeregu działań mających na celu uregulowanie wprowadzania do obrotu i korzystania z rozwiązań AI. Wyrazem tego jest m.in. projekt tzw. Aktu o sztucznej inteligencji[1].

Unijne prace nad Aktem o sztucznej inteligencji

Temat sztucznej inteligencji przewija się w Unii Europejskiej już od kilku lat, bowiem organy unijne co jakiś czas wydają białe księgi, komunikaty, strategie, założenia. Póki co nie ma jednak aktów prawnych, które całościowo regulowałyby kwestie związane z tworzeniem i wykorzystywaniem sztucznej inteligencji[2]. Nawet projekty aktów prawnych nie są jeszcze na ten moment wiążące.

W 2021 r. Komisja Europejska zaproponowała projekt rozporządzenia zwanego Aktem o sztucznej inteligencji[3]. W grudniu 2022 r., swoje podejście zaprezentowała również Rada Unii Europejskiej[4]. Natomiast w czerwcu 2023 r. podczas głosowania nad Aktem Parlament Europejski przyjął swoje stanowisko[5], różniące się niejednokrotnie od pierwotnego projektu zaproponowanego przez Komisję Europejską.

Warto wspomnieć, że żadna z propozycji rozporządzenia nie zawiera definicji sztucznej inteligencji. Projekt posługuje się od początku pojęciem „systemów sztucznej inteligencji”. W brzmieniu nadanym przez Parlament Europejski system sztucznej inteligencji „oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii i który może – do wyraźnych lub dorozumianych celów – generować wyniki, takie jak przewidywania, zalecenia lub decyzje wpływające na środowiska fizyczne lub wirtualne”[6].

Na marginesie warto zauważyć, jak problemy, które ukazały się w związku z korzystaniem z rozwiązań takich jak ChatGPT, wpłynęły na prace nad unijnym Aktem. Parlament Europejski uwzględnił bowiem pojęcie tzw. modelu generatywnego, który to jest modelem sztucznej inteligencji trenowanym na szerokiej skali danych, „jest zaprojektowany z myślą o ogólnym charakterze wyników i może być dostosowany do szerokiego zakresu odrębnych zadań”[7].

Zakres proponowanej regulacji

Akt o sztucznej inteligencji ma z założenia harmonizować przepisy regulujące tworzenie i wprowadzanie do obrotu systemów sztucznej inteligencji. Proponowane regulacje dzielą systemy sztucznej inteligencji według następujących poziomów ryzyka: niedopuszczalne ryzyko (uznawane za stwarzające zagrożenie dla ludzi), wysokie ryzyko, ryzyko umiarkowane oraz ryzyko minimalne.

Ponadto projekt rozporządzenia m.in. zakazuje określonych praktyk, określa związane w szczególności z systemami AI wysokiego ryzyka obowiązki nakładane na operatorów takich systemów, a także reguluje kwestie przejrzystości w odniesieniu do systemów AI.

Jeżeli chodzi o dziedziny i rodzaje systemów sztucznej inteligencji, projekt rozporządzenia obejmuje w zasadzie wszystkie dziedziny poza wojskowymi. Wersja Aktu przyjęta przez Parlament Europejski ponadto wyłącza ze swojego zakresu m.in. osoby fizyczne będące operatorami sztucznej inteligencji, które korzystają z systemów AI w celach osobistych, związanych z działalnością pozazawodową.

Zakazane systemy AI

Projekt Aktu o sztucznej inteligencji wyszczególnia praktyki dot. systemów AI uznawane za niedozwolone. Do nich należą między innymi systemy AI wykorzystujące techniki podprogowe, czy też słabości określonej grupy osób ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne, a także ze względu na szczególną sytuację społeczną czy ekonomiczną danej osoby. Do projektu wprowadzony został również zakaz wykorzystywania systemów zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej, np. rozpoznawanie twarzy. Ponadto jedna z poprawek Parlamentu Europejskiego objęła zakazem wykorzystywanie kategoryzacji biometrycznej do kategoryzowania ludzi według wrażliwych lub chronionych cech lub na podstawie wnioskowania o nich[8]. Wśród zakazanych systemów AI znalazły się ponadto te, które dotyczą tzw. social scoring’u, jak dotąd znanego z filmu „Raport mniejszości” czy systemu wprowadzonego w Chinach. Zgodnie z treścią projektu oznacza on „ocenianie lub klasyfikowanie osób fizycznych na podstawie ich zachowań społecznych, statusu społeczno-ekonomicznego lub na podstawie znanych lub przewidywanych cech osobistych lub cech osobowości”[9]. Ponadto w projekcie wprowadzono zakaz odnoszący się do systemów przewidywania ryzyka ponownego popełnienia przestępstwa na podstawie profilowania danej osoby, jej wcześniejszego zachowania czy cech osobowości. W odniesieniu do organów ścigania, służby granicznej, czy w miejscu pracy i szkołach nie będzie możliwe też wykorzystywanie systemów AI opartych na rozpoznawaniu emocji.

Systemy AI wysokiego ryzyka

Jak już zostało wspomniane, w projekcie rozporządzenia systemy sztucznej inteligencji skategoryzowane są według różnych poziomów ryzyka. Na tej podstawie na dostawcę systemu AI nakładane są określone obowiązki. Zgodnie z tym podziałem najwięcej wymogów zostaje nałożonych na dostawców systemów AI wysokiego ryzyka.

Zgodnie z projektem rozporządzenia do takich systemów należą m.in. systemy AI wykorzystywane w identyfikacji biometrycznej, w obsłudze infrastruktury krytycznej, w edukacji, w procesach rekrutacyjnych i zatrudnieniu, systemy stosowane do oceny zdolności kredytowej, do kwalifikowalności osób fizycznych do świadczeń publicznych, w tym do usług opieki zdrowotnej, czy do ubezpieczenia zdrowotnego lub ubezpieczenia na życie. Ponadto do takich systemów projekt Aktu zalicza wykorzystywane przez organy ścigania poligrafy, a także systemy używane do oceny wiarygodności dowodów w toku ścigania przestępstw lub prowadzenia dochodzeń w ich sprawie. W kategorii tej mieszczą się również systemy wykorzystywane jako pomoc w interpretacji prawnej i stosowaniu prawa, a ponadto systemy stosowane przez organy publiczne w kwestiach związanych z zarządzaniem migracją, azylem i kontrolą granic (w tym do oceny ryzyka i bezpieczeństwa stwarzanego przez osobę, która chce wjechać na terytorium państwa członkowskiego, a także do weryfikacji autentyczności dokumentów podróży oraz wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych). Wersja Aktu przyjęta przez Parlament Europejski jako wysokie ryzyko kwalifikuje również systemy AI służące do wywierania wpływu na wynik wyborów lub referendum, lub na zachowanie osób fizycznych podczas głosowania. Ponadto jako wysokie ryzyko uwzględniono również systemy rekomendacji stosowane przez platformy społecznościowe.

Podmioty wykorzystujące systemy AI wysokiego ryzyka będą zatem podlegały szeregowi obowiązków zarówno przed zaprojektowaniem i wprowadzeniem do obrotu danego systemu AI, jak i w trakcie jego funkcjonowania. Systemy te będą musiały być m.in. zarejestrowane w odpowiedniej bazie unijnej. Ponadto wiele wymogów związanych jest m.in. z przejrzystością systemów AI czy nadzorem ze strony człowieka. Przykładowo art. 13 projektu wprowadza regulację, zgodnie z którą dostawca systemu wysokiego ryzyka jest zobowiązany do zapewnienia przejrzystości funkcjonowania systemu i umożliwienia użytkownikom zrozumienia wyników działania danego algorytmu. Przejrzystość, o której mowa w proponowanych przepisach, oznacza, że „w momencie wprowadzania do obrotu systemu sztucznej inteligencji wysokiego ryzyka wykorzystuje się wszystkie dostępne środki techniczne zgodnie z powszechnie uznanym aktualnym stanem wiedzy, aby zapewnić dostawcy i użytkownikowi możliwość interpretacji wyników systemu sztucznej inteligencji[10].

Ponadto, wersja Aktu przyjęta przez Parlament Europejski uwzględnia obowiązek oceny działań systemu AI wysokiego ryzyka pod względem wpływu na prawa podstawowe. Co istotne, Parlament Europejski przyjął również poprawkę wprowadzającą instytucję skargi do krajowego organu nadzorczego, którą będą mogły wnieść osoby fizyczne (lub grupa osób fizycznych) przeciwko operatorom systemów sztucznej inteligencji.

Modele generatywne

W przypadku systemów wyodrębnionych jako modele generatywne, czyli systemów tworzących treści jak audio, wideo, obraz, tekst (np. ChatGPT), zgodnie z treścią projektu konieczne będzie spełnienie wymogów dotyczących przede wszystkim przejrzystości, tj. m.in. polegających na projektowaniu systemu w sposób zapobiegający generowaniu nielegalnych treści oraz umożliwiający ujawnienie, że użytkownik ma do czynienia z systemem AI. Dodatkowo, obowiązkowe będzie prowadzenie dokumentacji w odniesieniu trenowania modelu na danych będących utworami objętymi prawami autorskimi. Ponadto modele generatywne będą również musiały zostać zarejestrowanie w unijnej bazie. Warto wskazać, że nałożenie tych obowiązków, zgodnie z propozycją Aktu, nie oznacza jednocześnie uznania modeli generatywnych za system AI wysokiego ryzyka.

Ogólnie rzecz ujmując, jeżeli chodzi o systemy AI kwalifikowane jako ryzyko niskie lub minimalne – w ich przypadku zastosowanie będą miały przede wszystkim obowiązki dot. przejrzystości, co oznacza, że użytkownik powinien mieć świadomość, iż ma do czynienia ze sztuczną inteligencją.

Podsumowanie

Obecne brzmienie Aktu o sztucznej inteligencji nie jest jeszcze ostateczne. Jako że Parlament Europejski w czerwcu 2023 r. przyjął swoje stanowisko wobec projektu, możliwe jest już przejście do kolejnych etapów pracy nad Aktem. Celem UE jest bowiem przyjęcie ostatecznej wersji rozporządzenia do końca 2023 r. [11].

 

[1] Dalej również jako: „Akt”.

[2] Stan na 1.8.2023 r.

[3] Wniosek Komisji Europejskiej z 21.4.2021 r. Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniające niektóre akty ustawodawcze Unii COM(2021) 206 final 2021/0106(COD).

[4] Wniosek Rady Unii Europejskiej dotyczący rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniającego niektóre akty ustawodawcze Unii – Podejście ogólne, 25.11.2022 r., 2021/0106(COD).

[5] Akt w sprawie sztucznej inteligencji. Poprawki przyjęte przez Parlament Europejski w dniu 14 czerwca 2023 r. w sprawie wniosku dotyczącego rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniającego niektóre akty ustawodawcze Unii (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD).

[6] Tamże.

[7] Tamże.

[8] Zob. Art. 5 ust. 1 lit. ba) Aktu w sprawie sztucznej inteligencji. Poprawki przyjęte przez Parlament Europejski… Stan na 1.8.2023 r.

[9] Akt w sprawie sztucznej inteligencji. Poprawki przyjęte przez Parlament Europejski… Stan na 1.8.2023 r.

[10] Art. 13 ust. 1 Aktu w sprawie sztucznej inteligencji. Poprawki przyjęte przez Parlament Europejski… Stan na 1.8.2023 r.

[11] Stan na 1.8.2023 r.

 

 

Artykuł ukazał się w Miesięczniku Automatyka, wydanie 9/2023. – 9/2023 / 2023 / Roczniki / Automatyka / Strona główna | AutomatykaOnline.pl

#AI #akt o sztucznej inteligencji #sztuczna inteligencja

Chcesz być informowany o najnowszych wpisach na blogu?

  • - Podaj adres e-mail i otrzymuj informację o nowym wpisach na blogu SKP/IPblog prosto na Twoją skrzynkę
  • - Nie będziemy wysłać Ci spamu

Administratorem Twoich danych osobowych jest SKP Ślusarek Kubiak Pieczyk sp.k. z siedzibą w Warszawie, przy ul. Ks. Skorupki 5, 00-546 Warszawa.

Szanujemy Twoją prywatność dlatego przekazane nam dane nie będą przetwarzane i udostępniane poza SKP w innych celach niż ujęte w Regulaminie Serwisu. Szczegółowe postanowienia dotyczące naszego IP Bloga, w tym katalog Twoich uprawnień związanych z przetwarzaniem danych osobowych znajdziecie Państwo w Polityce Prywatności.