Sztuczna inteligencja staje się coraz bardziej autonomiczna. Potrzebne są odpowiednie przepisy, by zapewnić bezpieczeństwo całej ludzkości

0

Trwa wyścig zbrojeń w zakresie sztucznej inteligencji. Europa, aby dogonić USAChiny – potentatów na tym polu – planuje rocznie wydać na SI niemal 20 mld euro. Upowszechnienie rozwiązań bazujących na sztucznej inteligencji, w tym m.in. robotów, to jednak nie tylko korzyści, lecz także poważne zagrożenia. Obok cyberataków czy kradzieży danych sztuczna inteligencja mogłaby zostać wykorzystana do inwigilacji i propagandy. Autonomiczne roboty mogłyby też zostać wykorzystane jako śmiercionośna broń. Potrzebne jest stworzenie odpowiednich ram prawnych, które będą regulowały odpowiedzialność za SI i kwestie etyczne – podkreślają eksperci.

– Prawo dotyczące sztucznej inteligencji powinno regulować dwa znaczące obszary: z jednej strony kwestie odpowiedzialności za działania sztucznej inteligencji, a z drugiej kwestie etyczne, czyli w jaki sposób sztuczna inteligencja ma się zachowywać, żeby w którymś momencie nie zaczęła krzywdzić człowieka czy ludzkości – mówi agencji Newseria Innowacje dr Agnieszka Besiekierska, szefowa Praktyki Digitalizacji Biznesu Kancelarii Noerr.

Największymi światowymi potęgami w zakresie sztucznej inteligencji są Stany ZjednoczoneChiny, które wydają na nią najwięcej. SI w przyszłości może stanowić o przewadze gospodarczej poszczególnych krajów. Europa na tym polu zostawała w tyle – w dużej mierze dlatego, że kraje rywalizowały ze sobą, zamiast współtworzyć nowe rozwiązania. Ma się to jednak zmienić. Unia Europejska zapowiada aktywizację działań w obszarze sztucznej inteligencji, co roku na ten cel ma trafiać 20 mld euro. Na tle potęg to wciąż niewiele – raport Digital Poland „Przegląd strategii rozwoju sztucznej inteligencji na świecie” podaje, że Chiny na rozwój AI w 2017 roku wydadzą 28 mld dol. W USA tylko na jawne badania nad SI rząd wydał w 2016 roku 1,2 mld dol., a dodatkowe 30 mld dol. stanowiły inwestycje sektora prywatnego.

– W Europie jest kładziony nacisk z jednej strony na wspieranie rozwoju sztucznej inteligencji poprzez nadanie pewnych ram prawnych, swego rodzaju bodźców do rozwoju sztucznej inteligencji – takim obszarem będą regulacje dotyczące danych osobowych, danych nieosobowych i własności do danych nieosobowych – a z drugiej strony jest też kwestia zapewnienia odpowiednich ram bezpieczeństwa dla nas samych, żeby sztuczna inteligencja w którymś momencie nam nie zagroziła – mówi dr Agnieszka Besiekierska.

Czytaj również:  Rosnąca na świecie awersja do ryzyka nie sprzyja złotemu

Jak podkreślają eksperci, wydatki to jedno, ale równie istotne jest stworzenie odpowiednich ram prawnych dla rozwoju SI.

 To są kwestie etyczne związane z użyciem sztucznej inteligencji, ale również zupełnie przyziemna kwestia odpowiedzialności, z jaką mamy do czynienia przy użyciu zwykłego pojazdu czy innej maszyny. Nowe rozwiązania różnią się od tradycyjnych technologii, bo tutaj wpływ człowieka na działania maszyny będzie w którymś momencie mniejszy, będzie on duży na etapie tworzenia rozwiązania, ale stopniowo będzie malał, bo ideą jest to, żeby to maszyna przejęła działania, zaczęła samodzielnie działać, a nawet podejmować decyzje – tłumaczy Agnieszka Besiekierska.