W związku z rozwojem technologii opartej na sztucznej inteligencji (AI) liczne rządy i organizacje międzynarodowe rozpoczęły debatę na temat potencjalnych prawnych, ekonomicznych i społecznych konsekwencji stosowania algorytmów. Zgodnie z unijnymi ustaleniami, kraje członkowskie wspólnoty powinny do końca 2019 roku przedstawić strategie, związane z tym zagadnieniem. Niektórym się to udało, inne, jak Polska wciąż nad swoimi pracują. Jednak budowanie planów w tym zakresie nie dotyczy tylko Unii Europejskiej, wiele krajów już ma takie strategie, albo przynajmniej jest w trakcie ich tworzenia.

Jednym z podstawowych założeń przy powstawaniu takich polityk jest zdefiniowanie roli publicznych instytucji w procesie rozwoju i zwiększania roli AI, również w ramach sektora prywatnego. Pytania do odpowiedzi dotyczą kroków jakie trzeba podjąć w ramach systemów: edukacji, badawczego, pracy, podatkowego, prawnego, ochrony środowiska i wielu innych. Celem strategii jest, a przynajmniej powinna być, również ocena i przygotowanie potencjalnej odpowiedzi na ryzyka jakie rozwój AI niesie dla obywateli/ek i społeczeństwa. Jest to główne pole zainteresowań w działaniach związanych z algorytmami podejmowanych przez Fundację ePaństwo i sieć TransparenCEE.

Od 2017 roku aktywnie staramy się zapewnić większą przejrzystość procesów opierających się na automatycznym podejmowaniu decyzji (ADM), które często wykorzystują właśnie rozwiązania AI. Skupiamy się zwłaszcza na Europie Środkowo-Wschodniej: prowadzimy badania, podjęliśmy liczne działania rzecznicze, oraz litygacji strategicznych. W 2019 roku opublikowaliśmy raport dotyczący tego jak instytucje publiczne radzą sobie z ADM w kontekście przejrzystości i kontroli tych systemów oraz czy są przygotowane na jeszcze większe wyzwania w przyszłości

Poniższe opracowanie jest stworzone na podstawie analizy wybranych strategii związanych z rozwojem AI w Europie Środkowo-Wschodniej. Interesowało nas głównie podejście krajów do zagadnień związanych z przejrzystością, kontrolą, ochroną przed potencjalnymi ryzykami (zwłaszcza tymi związanymi z dyskryminacją). Sprawdzaliśmy  czy zaplanowano rozwiązania prawne, które zaadresowałyby te zagadnienia. Innymi słowami – na ile prawa człowieka są brane pod uwagę przez rządy krajów tego regionu przy budowaniu ekosystemu pod rozwój technologii AI. 

Główne uwagi

Przyjrzeliśmy się dokumentom stworzonym przez: Czechy, Estonię, Litwę, Rosję, Słowację, Serbię i Rumunię. 

Strategie różnią się od siebie zarówno jeżeli chodzi o ich szczegółowość jak i objętość. Dla przykładu: plany przygotowane przez Rosję, Słowację czy Serbię są bardziej opisowe  i zwracają uwagę na różne aspekty związane z AI, natomiast inne np. estońskie czy rumuńskie bardziej skupiają się na celach i wskaźnikach niż na głębszej analizie tematu.

Na obecnym etapie nie sformułowaliśmy oceny tego jak strategie są implementowane w poszczególnych krajach. Takie badania będziemy przeprowadzać później. Na ten moment przyjrzeliśmy się samym strategiom, za cel stawiając sobie znalezienie dobrych praktyk przy tworzeniu tego typu dokumentów. 

Wszystkie kraje odniosły się w swoich planach przynajmniej do części ryzyk, związanych z dyskryminacją lub kwestiami etycznymi. Jednakże w przypadku niektórych oznacza to zaledwie informację, że dokumenty związane z tymi zagrożeniami zostaną przygotowane w przyszłości w ramach wprowadzania planów. Oznacza to, że tworzenie gruntu pod wprowadzenie rozwiązań opartych na AI będzie podlegało częstym zmianom.

Przejrzystość

Zapewnienie przejrzystości działania AI w systemach automatycznego podejmowania decyzji w sektorze publicznym jest szczególnie istotne ze względu na konieczność zapobiegania dyskryminacji i przeciwdziałania innym ryzykom, na które narażone będą jednostki, a być może i całe grupy obywateli i obywatelek. 

W rosyjskiej strategii, przejrzystość jest wymieniona pośrednio jako jeden z głównych filarów na których oparta jest strategia rozwoju AI. Dla autorów strategii owa przejrzystość oznacza: “zapewnienie zrozumiałości działania rozwiązań opartych na AI, procesu osiągania rezultatów, niedyskryminacyjny dostęp użytkowników do informacji na temat algorytmów wykorzystanych w tych rozwiązaniach”. 

Strategia litewska jasno określa przejrzystość jako jeden z podstawowych fundamentów wprowadzania rozwiązań AI: “podstawą są transparentność i bezstronność aplikacji AI”. Jednym z mechanizmów mających to zapewnić ma być “utworzenie mechanizmu regulującego, który ma zagwarantować przejrzystość i wytłumaczalność podejmowanych decyzji dla użytkowników”. Autorzy dokumentu widzą potrzebę  inwestowania w mechanizmy zapewniające zrozumiałość, transparentność, łatwą ocenę działania i co za tym idzie zaufanie do rozwiązań AI. 

Również słowacka strategia wskazuje potrzebę zaprojektowania i wspierania mechanizmów zapewniających przestrzeganie zasad etycznych i przejrzystości przy implementacji rozwiązań AI. “Transformacja cyfrowa musi przebiegać pod nadzorem państwa, w celu zapewnienia, że AI i inne narzędzia technologiczne są używane jako wsparcie dla naszych wartości społecznych i prawnych”. 

Serbska strategia zawiera najbardziej pogłębioną analizę w porównaniu z innymi badanymi dokumentami. “Potrzebujemy kompleksowego podejścia do etycznych aspektów przy planowaniu, projektowaniu i wdrażaniu rozwiązań opartych na AI, zarówno mając na uwadze aspekty techniczne implementacji jak i jej efekty. Należy zabezpieczyć wolność jednostek, zasady bezstronności i równości, otwartość, przejrzystość oraz stabilność.” Serbskie władze zaznaczyły również, że “jednostki, na które będą miały wpływ decyzje podejmowane przez AI, muszą mieć zapewnione prawo do zrozumienia działania algorytmów. Dlatego konieczna jest ochrona przed dyskryminacją, wytłumaczalność już na wczesnym etapie działania systemów opartych AI i podejmowanych przez nie decyzji”. 

Zapobieganie dyskryminacji

Istnieje wiele przykładów na to, że wdrażanie rozwiązań opartych na AI  w sektorach publicznym i prywatnym, może nieść ryzyko dyskryminacji. Ten kontekst został uwzględniony we wszystkich strategiach, które były przedmiotem analizy. 

Po raz kolejny serbska strategia najszerzej odnosi się do tego problemu, przede wszystkim dzięki szerokiemu opisowi ryzyk i sposobów na ich zminimalizowanie. Zgodnie z dokumentem: “Przeciwdziałanie dyskryminacji, która może być wywołana na skutek używanie narzędzi wykorzystujących nauczanie maszynowe, jest koniecznością. Badania porównawcze wykazały przypadki niezamierzonej dyskryminacji, która może mieć znaczące efekty dla obywateli/ek. Odnosi się to zwłaszcza do systemów AI zaprojektowanych z myślą o podnoszeniu jakości usług publicznych. Dla przykładu, system może być zbudowany w celu oznaczenia ryzyka popełnienia przestępstwa przez jednostkę. Jeżeli wykorzystane dane nie zostały odpowiednio zweryfikowane, pojawia się ryzyko reprodukcji dyskryminującego mechanizmu. Nie istnieje uniwersalny mechanizm, który byłby w stanie ocenić czy konkretny system AI spełnia wszystkie wymagania, aby zostać wykorzystany na szeroką skalę i czy został zbudowany w sposób gwarantujący, że dane służące do jej rozwoju są faktycznie reprezentatywne i używane w sposób, który zabezpiecza prywatne dane  obywateli/ek. Nagły wzrost liczby funkcjonujących rozwiązań opartych na AI wymaga przede wszystkim odpowiedzialnego i inkluzywnego rozwoju tych rozwiązań, które mają mieć wpływ na całe społeczeństwo. Wymagane jest konsekwentne i bezwarunkowe przestrzeganie międzynarodowych norm, praktyk i zasad bezpieczeństwa. Właściwa implementacja tych zasad musi być zagwarantowana. (…) Etyczne wdrażanie rozwiązań opartych na AI powinno zapobiegać społecznemu wykluczeniu grup nieuprzywilejowanych, marginalizacji i dyskryminacji takich grup np. osób starszych, niepełnosprawnych i innych. Dyskryminacja nie jest nowym zjawiskiem, może natomiast stać się systemowym zagrożeniem jeżeli zostanie podparta maszynowym nauczaniem. Należy zapobiec temu ryzyku.”

Serbskie władze proponują bardzo konkretne kroki, które mają zapobiec dyskryminującemu działaniu AI. Idą one o wiele dalej w zapewnieniu odpowiednich regulacji niż przedstawione przez jakikolwiek inny kraj:

  1. Należy opracować zestaw  praktycznych wskazówek z , opartych na Kodeksie Etycznym, które muszą zostać wdrożone przez przez osoby opracowujący narzędzie AI i które uwzględniają potrzebę by  zespoły pracujące nad rozwojem sztucznej inteligencji były zróżnicowane i reprezentatywne dla różnych grup społecznych do stopnia w jakim tylko jest to możliwe. 
  2. Żeby zapobiec dyskryminacji w pierwszej kolejności należy zorganizować warsztaty edukacyjne dla technicznego i pozostałego personelu, który pracuje nad rozwojem rozwiązań opartych na AI.
  3. Należy organizować konkursy, w ramach których będą wybierane systemy i narzędzia zabezpieczające przed stronniczym i dyskryminującym  działaniem algorytmu.
  4. Należy wprowadzić zakaz praktyk dyskryminacyjnych w przypadkach, w których ujawniły się ona jako skutek automatycznego podejmowania decyzji lub przy ich udziale. Należy jasno zdefiniować kto ponosi odpowiedzialność w sytuacjach, w których nauczanie maszynowe prowadzi do dyskryminacji.
  5. Należy ustanowić obowiązek wykorzystywania przejrzystych źródeł i typów danych w nauczaniu maszynowym, które mogą zostać w prosty sposób opisane i wdrożone.

Strategie innych krajów nie zawierają tak głębokich analiz i nie są tak szczegółowe w zakresie rekomendacji. Na ogół ograniczają się do takich pojęć jak “etyka” czy “podstawowe prawa i wolności”: 

Czeska strategia wskazuje na potrzebę szybkiego “Ustanowienia platformy eksperckiej oraz odpowiedniego forum, których celem ma być stałe monitorowanie prawnych i etycznych aspektów na poziomie krajowym i lokalnym.” Możemy także przeczytać, że czeskie władze do 2027 roku planują zapewnić, że wdrażanie i rozwijanie narzędzi AI będzie oparte na podejściu “zorientowanym na człowieka” i zgodne z kodeksem prawnym i etycznym, w tym  Etycznych Zasad dla i Rozwijania i Używania Sztucznej Inteligencji  (Ethical Guidelines for Artificial Intelligence Development and Use).

Z kolei, władze rosyjskie zamierzają wspierać “rozwój zasad etycznych budowanych dla interakcji pomiędzy człowiekiem a sztuczną inteligencją”.

Strategia litewska zakłada powstanie Komisji Etycznej ds AI (AI Ethics Committee), która będzie wspierać badania, mające na celu zminimalizowanie ryzyka dyskryminacyjnego ze strony rozwiązań AI. Na bardziej praktycznym poziomie władze chcą ustanowić: “znak jakości dla firm przestrzegających zasad ustanowionych przez Komisję Etyczną ds AI.”

Słowackie władze planują: “uregulować zasady dotyczące odpowiedzialności prawnej oraz mechanizmów bezpieczeństwa firm zajmującymi się innowacjami z zakresu AI, żeby zagwarantować, że nawet w przypadku pojawienia się ryzyka związanego z ich produktami, mają narzędzia pozwalające na bezpieczne wdrożenie i wykorzystanie sztucznej inteligencji.” Zostaną również ustanowione zasady prawne, które mają: “usprawnić komunikację pomiędzy władzami a firmami technologicznymi, w celu lepszego zaadresowania ryzyk społecznych i innych związanych z transformacją cyfrową.”

Rumuńskie i estońskie władze nie skoncentrowały się na takich szczegółowych propozycjach  i w swoich strategiach zaznaczyły tylko jako wskaźniki generalne zasady antydyskryminacyjne i potrzebę “odpowiedzialnego stosowania” rozwiązań opartych na AI. 

Podsumowanie

Jakkolwiek wierzymy, że wszystkie strategie, które przywołaliśmy w tym dokumencie zostały stworzone zgodnie z jak najlepszymi intencjami, musimy zauważyć, że część z nich jest zdecydowanie zbyt powierzchowna, zwłaszcza w odniesieniu do aspektów związanych z przejrzystością i konkretnymi antydyskryminacyjnymi propozycjami. Dotyczy to również pomysłów na wprowadzenie twardych  regulacji prawnych. Najbardziej pochylono się nad tymi zagadnieniami w strategiach słowackiej i serbskiej, oraz, do pewnego stopnia, w litewskiej. Warto się im uważnie przyjrzeć i potraktować je jako dobre przykłady strategii, które bezpośrednio i konkretnie odpowiadają na zagadnienia i ryzyka związane z wpływem rozwoju rozwiązań opartych na AI na prawa człowieka.