Eksperci twierdzą, że prawo jest hamulcem dla rozwoju sztucznej inteligencji

0
Sztuczna Inteligencja (1)

Sztuczna inteligencja ma coraz szersze zastosowanie, ale w Polsce brakuje regulacji związanych z jej rozwojem. Według znawców tematu, zmiany są potrzebne, jednak niekoniecznie w trybie pilnym. Na poziomie unijnym już zostały podjęte pierwsze kroki. U nas należy przyjrzeć się m.in. obszarowi przepisów prawa cywilnego. Pojawiają się bowiem pytania o zakres odpowiedzialności cywilnej za szkody wyrządzone przez AI czy korzystanie z samochodów autonomicznych. Ponadto eksperci zwracają uwagę na kwestie dotyczące prawa autorskiego czy ochrony danych osobowych. Bazowanie na obecnych rozwiązaniach może w przyszłości oznaczać chaos.

Przyszłościowe zmiany

Wzrasta popularność produktów i usług wykorzystujących modele i narzędzia sztucznej inteligencji. Jednocześnie w wielu krajach, w tym w Polsce, przepisy nie są w pełni dostosowane do postępu technologicznego. Jak stwierdza dr hab. Marek Świerczyński, prof. UKSW, AI problem ten eskaluje. Zdaniem eksperta, w kwestiach informatycznych brak jest ujednoliconej terminologii. Nie ma jasnych zasad dla rozwoju sztucznej inteligencji oraz dla jej bezpiecznego wykorzystania. Teraz jest właściwy moment na podjęcie tych prac. Prace legislacyjne powinny być konsultowane z utworzoną właśnie pod egidą Ministerstwa Cyfryzacji Wirtualnej Katedry Etyki i Prawa.

– AI przyspiesza szereg procesów społecznych i gospodarczych, przede wszystkim poprzez ułatwienie ich automatyzacji i optymalizacji. Jednak tak długo, jak wykorzystujemy sztuczną inteligencję jako narzędzie wspomagające człowieka, nie są potrzebne żadne istotne zmiany w przepisach. Nowe regulacje prawne będą konieczne, gdy będziemy chcieli, aby to rozwiązanie podejmowało autonomiczne decyzje w sposób niekontrolowany przez człowieka. Takie zmiany powinny być wprowadzane sektorowo, w odniesieniu do poszczególnych zastosowań sztucznej inteligencji, w razie ustalenia, że są one niezbędnie konieczne – komentuje Tomasz Zalewski, radca prawny i założyciel Fundacji LegalTech Polska.

Według Moniki Gebel, adwokat z międzynarodowej kancelarii Baker McKenzie, stopniowe wprowadzanie zmian w przepisach jest konieczne. Jednak ekspert nie określa tego jako pilnej sprawy. I zaznacza, że na poziomie UE zostały już podjęte pierwsze kroki. W grudniu 2018 r. Komisja Europejska przedstawiła plan rozwoju i stosowania Al. Obejmuje on m.in. wsparcie na rzecz zgodnej z RODO wymiany danych pomiędzy państwami członkowskimi. Ponadto w kwietniu br. zostały przyjęte przez KE „Wytyczne etyczne dotyczące godnej zaufania sztucznej inteligencji”.

– Nie wiemy do końca, jaką rolę sztuczna inteligencja będzie odgrywać w przyszłości, a to z uwagi na trudności w zrozumieniu wszystkich aspektów jej funkcjonowania. Są pewne zagadnienia, nad którymi na pewno należałoby się zastanowić jak najszybciej. Brak reakcji władz przed upowszechnieniem się Al w Polsce może spowodować problemy np. w sądach, w działalności biznesowej czy z wykorzystaniem komercyjnym sztucznej inteligencji – podkreśla Katarzyna Szczudlik, adwokat z Kancelarii Wardyński i Wspólnicy.

Kwestia odpowiedzialności

Zdaniem Moniki Gebel, jednym z kluczowych obszarów są przepisy prawa cywilnego. Istotne jest szczególnie wprowadzenie przepisów umożliwiających wskazanie podmiotów odpowiedzialnych za działania produktów i usług, opartych na AI, które będą podejmowały decyzje i wykonywały określone czynności na rzecz konsumentów. W proces tworzenia i stosowania takich rozwiązań zaangażowanych jest wiele firm. To dostawcy technologii oraz oprogramowania, spółki dostarczające dane i dostosowujące mechanizmy do swoich towarów czy przedsiębiorstwa wprowadzające je do obrotu. Ponadto doprecyzowania wymaga np. sposób i moment wykonywania obowiązków informacyjnych wobec klientów.

– W pierwszej kolejności można zwrócić uwagę na problematykę odpowiedzialności za produkt niebezpieczny. Regulacje unijne są w tej kwestii przestarzałe. Pochodzą z lat 80. XX wieku. Jeśli chodzi o produkt, którego działanie opiera się na algorytmach sztucznej inteligencji, to oczekiwalibyśmy zapewnienia bezpieczeństwa przez cały okres eksploatacji. Niestety, obecne przepisy przewidują, że bezpieczeństwo to jest zapewnione tylko w momencie wprowadzenia produktu na rynek. Coraz trudniej jest określić, kto powinien odpowiadać za szkodę wyrządzoną przez produkt. Obecne rozwiązania prawne są niedostateczne, co widać choćby na przykładzie wypadków spowodowanych z wykorzystaniem autonomicznych pojazdów – mówi prof. Świerczyński.

Czytaj również:  Dno Bałtyku będą badać autonomiczne roboty. Nowy polski statek badawczy ma być wyposażony w najnowsze rozwiązania technologiczne

Jak tłumaczy Martyna Czapska, radca prawny z Baker McKenzie, na rynku nie ma samochodów w pełni autonomicznych, poruszających się bez kierowcy. One nie są jeszcze w fazie powszechnych testów. Natomiast definicja, wprowadzona do polskiego prawa w 2018 roku, przewiduje, że w aucie ma znajdować się człowiek, który w każdej chwili może przejąć kontrolę. To powoduje, że problem wprowadzenia nowych reguł odpowiedzialności za „działania” takich pojazdów nie jest na razie traktowany jako palący.

– Dopiero po modyfikacji przepisów będzie dopuszczalne w pełni korzystanie z autonomicznego pojazdu. Obecnie odpowiedzialność za szkody na mieniu i osobie, wyrządzone przez ruch mechanicznego środka komunikacji, poruszanego za pomocą sił przyrody, ponosi jego samoistny posiadacz na zasadzie ryzyka. Trudno wyobrazić sobie, aby odpowiadał on za wszelkie zniszczenia spowodowane przez automatycznego kierowcę, nie mając możliwości wpływania na jego ruch – dodaje Tomasz Zalewski.

Kluczowe obszary

Zmiany są potrzebne również w regulacjach dot. prawa autorskiego. W opinii mec. Katarzyny Szczudlik, należy zapewnić ochronę twórcom algorytmów oraz wytworom sztucznej inteligencji, czyli np. dziełom sztuki czy literackim. Obecnie na gruncie prawa polskiego nie ma możliwości przypisania Al autorstwa utworu. Ekspert zaznacza, że nie jest pewne, kogo należałoby uznać za autora wytworu powstałego z użyciem AI. Wydaje się, że nabywca rozwiązania opartego o AI, byłby zainteresowany posiadaniem praw autorskich do jego wytworów. Natomiast nie jest jasne, czy na gruncie obowiązujących przepisów byłoby to możliwe.

– Istotnym obszarem są stosunki prawne zawierane przy wykorzystaniu AI. Mamy do czynienia z dynamicznym rozwojem Internetu rzeczy, maszyny już się dogadują bezpośrednio między sobą. One same sobie wypracowują pewne reguły postępowania, a tego rodzaju komunikacja elektroniczna bez udziału człowieka funkcjonuje niejako poza systemem prawnym. Jeśli tego nie uregulujemy, to powstanie chaos związany np. z tym, w jaki sposób mamy rozstrzygać spory. Powoli tworzone są rekomendacje międzynarodowe z tego zakresu. Jednym z przykładów jest konwencja ONZ z 2005 roku czy najnowsze dokumenty Rady Europy. Naturalne jest, że tego rodzaju rozwiązania powinniśmy stopniowo przenosić na poziom naszej regulacji krajowej – wskazuje prof. Świerczyński.

Nowego spojrzenia wymagają przepisy w zakresie ochrony danych osobowych, które mają znaczenie z punktu widzenia podmiotów zajmujących się rozwojem modeli i narzędzi sztucznej inteligencji. Jak mówi Monika Gebel, te modele i narzędzia opierają się na dużych zbiorach danych, zarówno osobowych, jak i nieosobowych. Zdaniem eksperta z Baker McKenzie, niezbędne są sektorowe wytyczne w odniesieniu do stosowania przepisów w zakresie ich zbierania. Dotyczy to np. warunków udzielania zgód na ich przetwarzanie czy sposobu wykonywania obowiązków informacyjnych.

– Jest jeszcze kwestia procesów HR-owych, szczególnie w dużych organizacjach. Jeżeli pewne dane zostały wprowadzone do algorytmu, żeby nauczył się on zbierać osoby predestynowane do zajęcia danego stanowiska, to informacje te mogą mieć charakter dyskryminujący. Jeśli mamy np. 200 tys. rekordów, z których wynika, że organizacja preferuje mężczyzn, to pewnie tak też będzie w procesie rekrutacji prowadzonej z użyciem AI. W Stanach Zjednoczonych wystąpiły już przypadki dyskryminacji z uwagi na kwestie rasowe i płeć. Należałoby zatem stworzyć mechanizmy, które narzucałyby pracodawcom konieczność przyglądania się takim procesom i ich weryfikowania – dodaje mec. Katarzyna Szczudlik.

W ocenie prof. Świerczyńskiego, w naszych regulacjach krajowych powinniśmy uwzględniać zasady etyczne dotyczące sztucznej inteligencji. One są już wprowadzane przez organy międzynarodowe, na czele z Radą Europy. Bez tego zapanuje chaos. Dla przykładu, każdy będzie chciał uniknąć odpowiedzialności za używanie AI, a twórcy algorytmów, dystrybutorzy rozwiązań informatycznych czy użytkownicy będą wykorzystywać luki prawne. W interesie wszystkich jest ustanowienie jasnych zasad prawnych i etycznych dla rozwoju sztucznej inteligencji.Sztuczna Inteligencja (1)