Rozwój sztucznej inteligencji, czyli użyteczność kontra prywatność

0
Leszek Tasiemski – lider centrum cyberbezpieczeństwa F-Secure w Poznaniu
Leszek Tasiemski – lider centrum cyberbezpieczeństwa F-Secure w Poznaniu

Zobaczył ją w tramwaju, to była miłość od pierwszego wejrzenia. Wystarczyło jedno zdjęcie wykonane ukradkiem i system sztucznej inteligencji do rozpoznawania twarzy natychmiast odszukał jej nazwisko, profile na portalach społecznościowych i dane kontaktowe. Zarysowany scenariusz może być początkiem historii miłosnej lub wizją koszmaru związanego ze stalkingiem.

Chińska policja testuje okulary z wbudowaną kamerą, połączone z systemem AI (Artificial Intelligence) do rozpoznawania twarzy. Celem jest natychmiastowa identyfikacja osób poszukiwanych przez organy ścigania. Facebook niedawno wysłał do użytkowników zapytanie o zgodę na uruchomienie funkcji rozpoznawania twarzy. Rozwijanie tego typu technologii budzi sprzeciw nawet wśród tych, którzy je opracowują. Przykładowo, pracownicy firmy Amazon wyrazili protest wobec dostarczania algorytmów detekcji twarzy dla organów ścigania. Kilka tygodniu temu ponad stu pracowników Microsoftu wysłało list, w którym sprzeciwiali się, aby firma dostarczała usługi z zakresu przetwarzania w chmurze oraz sztucznej inteligencji dla amerykańskiej służby celnej i imigracyjnej.

Wydaje się, że znowu mamy do czynienia z sytuacją, kiedy postęp technologiczny i jego nagła adaptacja wyprzedza zdroworozsądkową ostrożność. Rozwój sztucznej inteligencji i prywatność nie idą w parze. Algorytmy będą w stanie bez najmniejszego problemu rozpoznać nasz wizerunek, a nawet głos, dopasować i połączyć dane zgromadzone na rozmaitych portalach społecznościowych (oraz randkowych), rozbijając ostatecznie iluzję anonimowości w sieci. Należy też pamiętać o ryzyku związanym z coraz bardziej powszechnymi asystentami głosowymi – najczęściej ceną wygody jest prywatność i postępujące cyfrowe obnażanie się.

Prawdopodobnie w najbliższych latach będziemy świadkami rozwoju metod manipulacji opartych na sztucznej inteligencji. Możliwe jest opracowanie algorytmów potrafiących perfekcyjnie udawać głos danej osoby (na podstawie kilkusekundowej próbki), a nawet generujących wideo osoby mówiącej swoim głosem i robiącej rzeczy, których nigdy nie zrobiła, ani nie powiedziała. To bardzo potężne narzędzia, które mogłyby trafić w ręce zarówno pospolitych oszustów, jak i agencji państwowych manipulujących opinią publiczną. Odróżnienie prawdy od fałszywej informacji (fake news) będzie coraz trudniejsze, może nawet niemożliwe.

Czytaj również:  Kwestia lojalności, czyli jak zatrzymać klienta?

Należy pamiętać, że twórcy rozwiązań wykorzystujących sztuczną inteligencję kierują się dobrymi intencjami, a ich motywacją jest zapewnienie wsparcia dla człowieka na różnych płaszczyznach życia. Możliwość podyktowania treści maila lub listy zakupów nawet w trakcie jazdy samochodem, zidentyfikowanie twarzy poszukiwanych przestępców dzięki inteligentnym systemom monitoringu czy odnalezienie starego przyjaciela – to tylko część funkcjonalności, które mają szansę poprawić naszą wydajność, bezpieczeństwo publiczne oraz kontakty międzyludzkie.