Ban na AI? Unia Europejska przygląda się sztucznej inteligencji

17.04.23
Powered by

Unia Europejska rozpoczęła kilka lat temu trudny proces prawnego uregulowania zasad dotyczących AI. Okiełznanie tak dynamicznie zmieniającej się technologii jest nie lada wyzwaniem. Czy to zadanie ma szansę powodzenia? Kluczem do sukcesu wydaje się stworzenie pojemnej i precyzyjnej definicji, która obejmie pojawiające się jak grzyby po deszczu nowe systemy i algorytmy.

Czy wiemy czym jest AI?

Wiele firm, pozycjonujących się jako innowacyjne i zaawansowane technologiczne, chwali się stosowaniem sztucznej inteligencji. Często jednak mianem tym określa się rozwiązania, które nimi nie są. Programy, takie jak chociażby Excel, potrafią przetworzyć w szybkim tempie dane przekraczające możliwości człowieka. Ale działają po prostu według zapisanych w kodzie instrukcji. Abyśmy mogli nazwać dane rozwiązanie sztuczną inteligencją, musimy mieć do czynienia z systemem, który na podstawie danych będzie umiał samodzielnie funkcjonować. To prowadzi nas do definicji wypracowanej w ramach OECD (Organizacja Współpracy i Rozwoju Gospodarczego) i przyjętej również w Polsce. Według niej AI to „system oparty na koncepcji maszyny, która może wpływać na środowisko, formułując zalecenia, przewidywania lub decyzje dotyczące zadanego zestawu celów”.

Innymi słowy, system AI analizuje dane, uczy się i na ich podstawie podejmuje decyzje w świecie wirtualnym lub rzeczywistym.

Rekomendacje na platformach streamingowych,  bazujące na wcześniejszych odtworzeniach; translatory rozpoznające tekst na zdjęciach i zmieniające go w edytowalny format; chatboty wchodzące w interakcje z klientami – to tylko kilka przykładów zastosowania AI, z którymi zapewne każdy z nas świadomie się już zetknął. Mniej oczywiste, ale stosowane już na szeroką skalę, są rozwiązania używane w meteorologii czy ruchu drogowym. AI pomaga też w wykrywaniu oszustw finansowych oraz znajduje zastosowanie w sektorze publicznym.  Jak każde rozwiązanie, wraz z korzyściami przynosi też zagrożenia.

AI pozwoli Ci przekroczyć granicę. Albo nie.

AI sprawdza się w obszarach, w których przetworzenie w krótkim czasie ogromnej ilości danych przerasta zdolności ludzkie. Jak każdy system nie jest jednak wolna od wad. Nie potrafi rozpoznać kontekstu, dlatego algorytmy nie są w stanie skutecznie walczyć z mową nienawiści w sieci. Systemy AI mogą pełnić role asystentów formułujących zalecenia. Mogą również na podobieństwo sędziów ferować wyroki, niestety także w dyskryminujący i wykluczający sposób. Decyzje podjęte przez algorytm są bowiem tak niedoskonałe, jak dane, na podstawie których zostały podjęte. A te mogą być obarczone stereotypami i uprzedzeniami. Wyobraźmy sobie firmę, w której o wysokości płac w znacznej mierze decyduje płeć. System, który zostanie zasilony takimi danymi i na ich podstawie będzie miał rekomendować płace w przyszłości, pogłębi te dysproporcje. Nawet jeśli finalnie decyzję podejmie człowiek, to będzie ona poparta zaleceniem algorytmu. W ten sposób system przyczyni się do utrwalenia panujących nierówności.

Jaskrawymi przykładami dyskryminującego działania AI są: algorytm, który decydował o przyznawaniu wiz emigrantom w Wielkiej Brytanii – ułatwiał wjazd osobom pochodzącym z krajów, które uznał za „białe”, a pozostałe musiały przejść długi i uciążliwy proces weryfikacji; system COMPAS, wykorzystywany w amerykańskim sądownictwie, który dyskryminował czarnoskórych i kobiety jako osoby, które z większym prawdopodobieństwem popełnią przestępstwo; duński algorytm, który za kryterium przyjął narodowość, bezprawnie domagał się zwrotu zasiłków od tysięcy rodzin. Ten ostatni przypadek skończył się dymisją rządu.

Brak odgórnej regulacji stwarza kolejny problem, którym jest niejawność działania systemów AI. Większość firm niechętnie decyduje się na ujawnienie wewnętrznych dokumentacji. Bardzo często algorytm zostaje zasilony danymi, ale proces, który doprowadził do podjęcia takiej, a nie innej decyzji jest niemożliwy do prześledzenia. Ta tak zwana zasada “czarnej skrzynki” sprzyja rozmyciu odpowiedzialności za nieprawidłowe działania systemów.

Algorytmy Wielkiego Brata

Jeden z odcinków serialu Black Mirror pokazywał świat, w którym punkty zdobyte w mediach społecznościowych decydowały o statusie człowieka. To co było dystopijną wizją przyszłości działa już na zbliżonych zasadach w Chinach. Tamtejszy rządowy Social Credit System nalicza bądź odejmuje obywatelom punkty, w zależności od zebranych o nich informacji. W ten sposób umieszcza ich w jednej z czterech hierarchicznych kategorii. Od znalezienia się w danej grupie zależy m.in. to, czy określona osoba dostanie kredyt, paszport lub czy obejmie kierownicze stanowisko. Monitorowane i oceniane są również aktywności w social mediach i zakupy w sieci.

Jednym z założeń unijnego rozporządzenia ma być zakaz stosowania podobnych systemów na terenie UE i ograniczenie ich dyskryminującego działania.

Czym jest The AI Act i czy potrzebne nam kolejne regulacje?

Unia Europejska znana jest z regulowania oraz tworzenia standardów i norm. Działania takie postrzegane były często jako nadmiernie biurokratyczne. Należy im jednać oddać sprawiedliwość i zaznaczyć, że były często początkiem dyskusji i wypracowywały rozwiązania, które rezonowały globalnie. Budzące parę lat temu grozę RODO uregulowało sposób, w jaki instytucje zarządzają danymi osobowymi i wymusiło ostrożne obchodzenie się z nimi. I to właśnie w tym rozporządzeniu znajdziemy zapis o tym, że “każdy ma prawo do tego, by nie podlegać decyzji opartej wyłącznie na zautomatyzowanym przetwarzaniu, jeśli decyzja wywołuje wobec tej osoby skutki prawne lub w podobny sposób istotnie na nią wpływa”. Mowa tu o tzw. robotic process automation, czyli automatycznym podejmowaniu decyzji, którego przykładem może być scoring bankowy (oszacowanie wiarygodności kredytobiorcy). AI Act jest niejako krokiem dalej i rozwinięciem tego zapisu.

Akt w sprawie Sztucznej Inteligencji – The Artificial Intelligence Act (The AI Act lub AIA) jest próbą kompleksowego uregulowania od strony prawnej zasad dotyczących sztucznej inteligencji. W zamierzeniu ma klasyfikować długą listę technologii, która dostarcza rozwiązań, ale nierzadko ma szkodliwy wpływ na życie ludzi. Dokument zawiera uszeregowanie systemów AI wg ryzyka jakie niosą, tj.:

  • minimalne – dotyczące np. filtrów antyspamowych;
  • akceptowalne – gdzie proponuje się jasną informację o wejściu w interakcję z AI, np. gdy będziemy rozmawiać z chatbotem;
  • wysokie – tu ujęte mają zostać te systemy, które rozstrzygają kwestie prawne, zarobkowe lub związane z infrastrukturą krytyczną, a więc te obszary, w których łatwo o różnego rodzaju dyskryminacje;
  • nieakceptowalne są zaś rozwiązania podobne do wyżej wspomnianego chińskiego systemu zaufania społecznego.

Zmierzenie się z tak nowym i skomplikowanym zagadnieniem nie jest łatwym zadaniem. Droga od samego pomysłu do wdrożenia w życie może zająć kilka lat. W obliczu wciąż rozwijanych technologii, które wymykają się stale tworzonym definicjom, ten proces jest niesamowicie trudny. W tym kontekście UE ponownie wychodzi przed szereg, jeśli chodzi o ujęcie danego zagadnienia w ramy prawa. Sama UE wiąże z nowymi technologiami duże nadzieje, ale też jest świadoma zagrożeń, jakie one niosą. AIA ma pomóc zmniejszyć ich liczbę.

21 kwietnia 2021 r. Komisja Europejska opublikowała wstępny projekt regulacji. W czasie, kiedy pisany był ten tekst, czyli w grudniu 2022 roku, projektowi przygląda się Parlament Europejski oraz Rada, złożona z przedstawicieli 27 państw członkowskich. Wejdzie on w życie, jeśli te dwa organy uzgodnią wspólną wersję tekstu. Będziemy również śledzić ten proces i informować was o postępach.

Szczegóły na temat The AI Act znajdziecie na stronie The Artificial Intelligence Act.

Temat sztucznej inteligencji i AI Act w obszerny i ciekawy sposób ujęty został w raporcie opublikowanym na stronie Fundacji Panoptykon.

Więcej o zagadnieniu prawnego uregulowania AI usłyszycie w rozmowie Aleksandry Przegalińskiej z Katarzyną Szumielewicz. Odcinek podcastu powstał w ramach cyklu „Coś osobliwego” w Newonce Radio. Zachęcamy do posłuchania.

Więcej z tej kategorii