Odpowiedzialność za działania sztucznej inteligencji – najnowsze propozycje legislacyjne

    Sztuczna Inteligencja (1)

    4 maja 2020 r. opublikowano projekt raportu w przedmiocie rekomendacji Komisji ds. Prawnych Parlamentu Europejskiego („Raport”) dotyczącej cywilnej odpowiedzialności za sztuczną inteligencję („SI”). Jest to kolejny dokument organów unijnych dotyczący SI, jednak w tym przypadku mamy do czynienia, w przeciwieństwie do wcześniejszych inicjatyw, ze skonkretyzowanymi propozycjami legislacyjnymi.

    Wprowadzenie algorytmów SI do społeczeństwa i gospodarki jest jednym z najważniejszych zagadnień w obecnej agendzie politycznej. Pomimo częstej tendencji do nadawania SI cech ludzkich, istniejące narzędzia oparte o SI nie różnią się znacząco, przynajmniej na razie, od innych technologii, które niejednokrotnie opierają się na bardziej złożonym oprogramowaniu. Ostatecznie zdecydowana większość systemów SI jest wykorzystywana do obsługi powtarzalnych, monotonnych zadań i takie używanie SI nie niesie ze sobą, co do zasady, istotnego ryzyka dla użytkowników SI i dla społeczeństwa w ogólności. Istnieją jednak również systemy SI, które opierają się na sieciach neuronowych oraz procesach głębokiego uczenia się. Brak transparentności ich funkcjonowania (tzw. black box) sprawia, że ludzie nie są w stanie zrozumieć ich działania i prześledzić procesu, który doprowadził algorytm do podjęcia danej decyzji. Pomimo powyższego, twórcy Raportu stoją na stanowisku, że korzyści płynące z wykorzystania systemów SI będą zdecydowanie przeważać nad wadami. Są oni zdania, że algorytmy SI pomogą skuteczniej walczyć ze zmianami klimatycznymi, usprawnią badania lekarskie, lepiej zintegrują osoby niepełnosprawne ze społeczeństwem – a są to jedynie nieliczne z ich dostępnych zastosowań. Aby wykorzystać różne możliwości technologiczne, zwiększyć zaufanie ludzi do korzystania z systemów SI, a jednocześnie zapobiegać negatywnym scenariuszom, kluczowe znaczenie będzie miało stworzenie horyzontalnych ram prawnych opartych na wspólnych zasadach w celu ustanowienia równych standardów w całej Unii.

    Odpowiedzialność za SI

    W omawianym Raporcie wyrażono pogląd, że nie ma potrzeby dokonywania pełnego przeglądu funkcjonujących systemów odpowiedzialności, niemniej wskazano szereg wyzwań związanych z rozwojem algorytmów SI, wynikających z ich złożoności, braku przejrzystości i podatności na zagrożenia zewnętrzne. W konsekwencji za konieczne uznano fragmentaryczne dostosowanie porządku prawnego tak, aby uniknąć sytuacji, w której osoby, które doznają uszczerbku lub których mienie zostało uszkodzone ze względu na działanie systemów SI, pozostają bez odszkodowania. Uznano, że procesy, które są przeprowadzane przez systemy SI mogą prowadzić do powstania szkody, ale co istotne – ich pierwotne źródło jest wynikiem budowania, wdrażania lub ingerowania w te systemy przez człowieka. Jako potencjalny problem wskazano autonomię systemów SI, która może w praktyce bardzo utrudnić lub nawet uniemożliwić śledzenie określonych szkodliwych działań systemów SI na podstawie zindywidualizowanego wkładu człowieka. Zaznaczenia jednak wymaga, że aktualnie nadal nie ma w pełni autonomicznych systemów SI, chociaż faktycznie zdarzają się takie, których sposób przetwarzania procesów jest ciężki lub nawet niemożliwy do ustalenia.

    Jako punkt wyjścia potraktowano w Raporcie dyrektywę w sprawie odpowiedzialności za produkt niebezpieczny, która do tej pory okazała się raczej skutecznym sposobem uzyskania odszkodowania za szkody spowodowane przez wadliwy produkt. W konsekwencji w Raporcie zasugerowano, że ta dyrektywa powinna być również stosowana w odniesieniu do roszczeń z tytułu odpowiedzialności cywilnej wobec producenta wadliwego systemu SI, jeżeli system SI spełnia przesłanki uznania za „produkt” na gruncie tej dyrektywy. Uwzględniono jednocześnie konieczność wprowadzenia zmian legislacyjnych do dyrektywy, wskazując m.in. że dla celów pewności prawnej w całej Unii „backend operator” powinien podlegać tym samym zasadom odpowiedzialności co producent i wykonawca.

    Odniesiono się również do istniejących aktów prawnych państw członkowskich dotyczących czynów niedozwolonych, gdzie w większości przypadków zapewniony jest wystarczający poziom ochrony osób, które poniosły w ich wyniku szkodę.

    IP i prawo nowych technologii

    Obsługa w zakresie prawa własności intelektualnej dla firm korzystających z nowoczesnych technologii, rozwijających lub inwestujących w takie rozwiązania.

    Słusznie jednak zauważono, że w przypadkach, w których osoba odpowiedzialna za taką szkodę nie może zostać ustalona, co w przypadkach ataków hackerskich jest bardzo częste, konieczne są dodatkowe przepisy w zakresie odpowiedzialności. Jako rozwiązanie wskazano roszczenia odpowiedzialności cywilnej wobec podmiotu wdrażającego system SI. Uzasadniono to faktem, że taki podmiot kontroluje ryzyko związane z systemem SI, porównywalne z ryzykiem związanym z właścicielem samochodu lub zwierzęciem domowym. Ze względu na złożoność i skomplikowanie systemów SI podmiot wdrażający będzie w wielu przypadkach pierwszym i jedynym łatwo identyfikowalnym punktem kontaktowym dla osoby poszkodowanej. – Aleksandra Witowska | Deloitte

    Jako podmiot wdrażający zdefiniowano taki podmiot, który decyduje o korzystaniu z systemu SI, sprawuje kontrolę nad ryzykiem i odnosi korzyści z jego działania. W sytuacji, w której występuje więcej niż jeden podmiot wdrażający, słusznie zaproponowano, że ich odpowiedzialność będzie solidarna, z prawem regresu.

    Odpowiedzialność uzależniona od poziomu ryzyka

    W Raporcie wskazano, że rodzaj zastosowanego systemu SI może mieć znaczenie dla zakresu odpowiedzialności za dany algorytm. Chodzi tutaj przede wszystkim o rozwiązania generujące wysokie ryzyko dla ogółu społeczeństwa ze względu na możliwą ingerencję w takie sfery jak zdrowie, życie, integralność cielesna czy prawo własności.

    Ciekawym rozwiązaniem jest propozycja enumeratywnego wymienienia systemów wysokiego ryzyka w załączniku do proponowanego aktu prawnego z zastrzeżeniem, że Komisja powinna być uprawniona do dokonywania przeglądu, co najmniej raz na 6 miesięcy i wprowadzania stosownych zmian. Wydaje się to bardzo dobrym rozwiązaniem, w szczególności mając na uwadze wysoką dynamikę rozwoju tej technologii, a co za tym idzie dużą zmienność potencjalnych zagrożeń. Póki co wśród rozwiązań wysokiego ryzyka wymieniono m.in. drony, określone typy samochodów autonomicznych oraz autonomiczne roboty.

    Niezależnie od powyższego wskazano, że wszystkie działania, urządzenia lub procesy prowadzone przez systemy SI, które spowodują szkody lub uszkodzenia, ale nie zostaną wymienione w załączniku do przyszłej regulacji, powinny nadal podlegać odpowiedzialności na zasadzie winy, z zastosowaniem domniemania winy podmiotu wdrażającego.

    Ubezpieczenie

    Ryzyko związane z odpowiedzialnością jest jednym z kluczowych czynników decydujących o sukcesie nowych technologii, produktów i usług. Odpowiednie zabezpieczenie przed ryzykiem jest niezbędne dla zapewnienia społeczeństwu, że może ono zaufać nowej technologii pomimo możliwości poniesienia szkody lub wystąpienia z roszczeniami prawnymi przez osoby poszkodowane. W projektowanych rozwiązaniach przewidziano zatem obowiązek posiadania ubezpieczenia przy wdrażaniu technologii wysokiego ryzyka. Należy pozytywnie zapatrywać się na takie rozwiązanie, przy czym niewątpliwie będzie ono stanowiło duże wyzwanie dla branży ubezpieczeniowej.

    Planowane regulacje prawne są szansą dla ubezpieczycieli na rozwój nowych produktów, skierowanych zarówno do producentów oprogramowania, jak też do podmiotów wdrażających. Ubezpieczyciele chcący wejść na ten rynek staną przez koniecznością zbudowania nowych kompetencji wyceny i akceptacji ryzyka. Kluczowa będzie identyfikacja i ocena możliwych zagrożeń (m.in. błąd użytkownika, błąd programisty, atak hackera), ocena wbudowanych zabezpieczeń, a także ocena rozmiaru potencjalnych szkód (w tym szkód w mieniu i na osobie). Uprzednie doświadczenie w produktach cyberrisk będzie przydatne, jednak zakres ubezpieczeń związanych z działaniem algorytmów SI może być znacznie szerszy i będzie wymagać wypracowania nowego podejścia. – Marcin Warszewski | Deloitte

    Podsumowanie

    Zaprezentowane propozycję niewątpliwie są ważnym krokiem ku uregulowaniu systemów opartych na sztucznej inteligencji, które znajdują coraz szersze, gospodarcze zastosowanie. W Raporcie słusznie zwrócono uwagę na szereg zagrożeń związanych z zaimplementowaniem tych technologii, jednak wykazano także szereg korzyści, które niewątpliwie mogą wywrzeć pozytywny wpływ na nasze życie.

    Proponowane podejście w zakresie uregulowania odpowiedzialności za działanie systemów SI wydaje się racjonalne i adekwatne, bowiem zamiast rewolucyjnych zmian w dobrze funkcjonujących systemach odpowiedzialności, przewidziano konkretne działania mające na celu dostosowanie istniejących przepisów, przy jednoczesnym wprowadzeniu nowych, zorientowanych na przyszłość rozwiązań. Koncentracja na odpowiedzialności podmiotu wdrażającego, wydaje się właściwym rozwiązaniem, w szczególności mając na uwadze praktyczne problemy w zidentyfikowaniem innych podmiotów odpowiedzialnych za szkody. Ponadto, pozytywnie należy ocenić także obowiązkowe ubezpieczenia dla takich podmiotów. Niewątpliwie takie uregulowania przyczynią się do znacznej poprawy bezpieczeństwa systemów i zabezpieczenia interesów użytkowników. Warto podkreślić, że śledzenie tego rodzaju działań legislacyjnych powinno być elementem odpowiedzialnego wdrażania SI w organizacjach, a istniejące procedury dotyczące robotyzacji powinny być regularnie przeglądane i testowane pod kątem zgodności z najnowszymi działaniami regulacyjnymi.