Sztuczna inteligencja przetwarza o nas coraz więcej informacji. Rządy i globalne firmy próbują znaleźć równowagę między prywatnością a wygodą użytkowników

Sztuczna inteligencja przetwarza o nas coraz więcej informacji. Rządy i globalne firmy próbują znaleźć równowagę między prywatnością a wygodą użytkowników 1

Obecnie rozwiązania z zakresu sztucznej inteligencji wykorzystywane są powszechnie niemal we wszystkich nowoczesnych technologiach oraz usługach, z których korzystamy. Algorytmy analizują nasze zachowanie w sieci, preferencje konsumenckie, a nawet e-maile w celu wykrycia niebezpiecznych wiadomości. Inżynierowie i politycy pracują nad rozwiązaniami, które pozwolą uregulować systemy przetwarzania dużych zasobów danych, aby uchronić nas przed atakiem ze strony hakerów oraz wykorzystaniem poufnych informacji bez naszej zgody.

– Dane są wykorzystywane przez sztuczną inteligencję i to jest oczywiście związane z postępującą cyfryzacją świata. Problemem jest oczywiście strach przed tym, w jaki sposób te informacje będą wykorzystywane i czy są wykorzystywane. W jaki sposób ci, którzy stanowią prawo, będą dbać o to, żeby te informacje nie były wykorzystywane w niecnych celach. A ludzie boją się chociażby tego, że ekspedientka w sklepie zapyta o kod pocztowy – mówi agencji informacyjnej Newseria Innowacje Jacek Kotarbiński, ekonomista i autor bloga Kotarbinski.com.

Po algorytmy uczące się chętnie sięgają zarówno prywatne przedsiębiorstwa, jak i przedstawiciele administracji publicznej. W związku z tym coraz częściej mówi się o konieczności wypracowania takich rozwiązań i norm prawnych, które z jednej strony umożliwią swobodne funkcjonowanie technologii SI na rynku, z drugiej zaś zagwarantują, że te rozwiązania będą działały z poszanowaniem prywatności użytkowników systemów inteligentnych.

– Chcemy wiedzieć, jak dane będą wykorzystywane, do czego oraz w jakim zakresie jesteśmy w stanie je kontrolować. Natomiast w przeciwieństwie do tego strachu jest sytuacja, gdzie sztuczna inteligencja może się uczyć, jak pozyskiwać o nas informacje i analizować te informacje tylko wtedy, kiedy my tych informacji będziemy jej dostarczać – wskazuje Jacek Kotarbiński.

Ważny krok na tej drodze wykonała firma Google, która wprowadziła szereg rozwiązań umożliwiających kontrolowanie tego, co dzieje się z informacjami powiązanymi z naszym kontem mailowym. Koncern pozwala m.in. przejrzeć, jakie dane udostępniamy poszczególnym aplikacjom oraz samemu ekosystemowi Google, i zadecydować, które mają być przetwarzane. Co więcej, firma planuje nieustannie optymalizować algorytmy uczenia maszynowego, aby zminimalizować liczbę poufnych danych wysyłanych do chmury. Te mają być analizowane bezpośrednio w pamięci urządzenia mobilnego.

Google wdroży także mechanizm cyklicznego czyszczenia informacji, dzięki któremu będziemy mogli ustawić datę ważności wszystkich danych, które przesyłamy do serwisu. Dzięki temu system będzie regularnie usuwał dane historyczne, które nie są wykorzystywane w celu zapewnienia bieżącej obsługi konsumenta.

– Dążymy do wygody, żeby nie kupować już biletów papierowych na samolot, tylko żeby powiedzieć: hej, Siri, czy możesz kupić mi bilet lotniczy z tego miejsca do tego miejsca? I uznajemy, że sprawa w zasadzie jest załatwiona, cały proces będzie zautomatyzowany. Ta sytuacja wygody jest dla nas bardzo przyjazna, natomiast problem pojawia się wtedy, kiedy sztuczna inteligencja np. będzie sprawdzać, czy jesteśmy prawym człowiekiem i z tego powodu np. nie wpuści nas do metra. Ale tutaj dochodzimy już do tematu, w jaki sposób rządy państw będą podchodzić do wykorzystywania sztucznej inteligencji i np. rozpoznawania twarzy na ulicach – mówi ekspert.

Chiński system monitoringu miejskiego bazuje na sieci kamer połączonych, które nieustannie skanują twarze wszystkich przechodniów, rejestrują je i porównują z policyjną bazą osób poszukiwanych. W teorii system ma służyć do wyszukiwania w tłumie przestępców. W praktyce może być wykorzystywany do monitoringu. W przypadku chińskich kamer bezpieczeństwa nikt nie pyta obywateli o to, czy zgadzają się na przetwarzanie danych biometrycznych.

Problematyką dynamicznego rozwoju technologii sztucznej inteligencji zainteresowało się m.in. Ministerstwo Cyfryzacji, które prowadzi prace nad Założeniami do strategii sztucznej inteligencji w Polsce. Dokument ma wskazać wyzwania, jakie w najbliższym czasie staną przed tą branżą, oraz strategiczne cele jej rozwoju, także w zakresie edukacji. Równie ważna rola przypadnie zespołowi GovTech Polska działającemu pod skrzydłami kancelarii premiera. Podmioty działające w ramach tego porozumienia mają doprowadzić do wypracowania skutecznego modelu współpracy administracji publicznej oraz podmiotów zajmujących się zagadnieniami SI.

– Dla nas istotne jest prawo do tego, żeby pozostać w określony sposób anonimowymi. Ważne dla nas jest to, żebyśmy wiedzieli, kto wykorzystuje te dane i do czego. Tego rodzaju mechanizmy już się pojawiają. Myślę, że również ważne jest prawo do bycia zapomnianym, czyli do sytuacji, w której w pewnym momencie podejmujemy decyzję, żeby operator tych danych np. był w stanie skutecznie skasować informacje, które o nas się pojawiają. Chcemy mieć kontrolę nad naszą prywatnością, myślę, że to jest ten kierunek – podkreśla Jacek Kotarbiński.

Według analityków z firmy MarketsandMarkets wartość globalnego rynku sztucznej inteligencji w 2017 roku przekroczyła 16 mld dol. Przewiduje się, że do 2025 roku wzrośnie ona do przeszło 190 mld dol. przy średniorocznym tempie wzrostu na poziomie 36,6 proc.