Asystenci głosowi i inteligentne głośniki nas podsłuchują. Mogą pomóc hakerom włamać się do inteligentnego domu

Asystenci głosowi i inteligentne głośniki nas podsłuchują. Mogą pomóc hakerom włamać się do inteligentnego domu

Asystenci głosowi i inteligentne głośniki nas podsłuchują. Mogą pomóc hakerom włamać się do inteligentnego domu 1

Wraz ze wzrostem zainteresowania asystentami głosowymi rośnie także ryzyko, że poufne informacje o ich użytkownikach dostaną się w niepowołane ręce. Aby móc wykonywać nasze polecenia, asystent musi nieustannie nasłuchiwać tego, co dzieje się w jego otoczeniu. Jeśli do takiego inteligentnego systemu włamie się haker, może nie tylko podsłuchać nasze rozmowy, ale także przejąć kontrolę nad urządzeniami funkcjonującymi w ramach internetu rzeczy.

– Takie firmy jak Google rejestrują to, co się dzieje w otoczeniu asystenta i to jest kolejny element informacji o nas, które mają. Oprócz asystenta głosowego, Google ma Google Maps, jedną z najbardziej popularnych aplikacji rejestrujących nasze położenie nawet wtedy, kiedy nie wyraziliśmy na to zgody. A jeżeli wyraziliśmy na to zgodę, to możemy ileś lat wstecz zobaczyć, gdzie byliśmy danego dnia. Analogicznie jest z asystentem głosowym, te dane po prostu trafiają do tzw. chmury producenta takiego rozwiązania i tam są poddawane obróbce i analizie – mówi agencji informacyjnej Newseria Innowacje Andrzej Nowodworski, architekt bezpieczeństwa i współwłaściciel Immunity Systems.

Mimo że asystenci głosowi powinni się aktywować wyłącznie w momencie usłyszenia hasła aktywacyjnego, nieustannie podsłuchują i nagrywają nasze rozmowy. Korporacje nie mają zamiaru zdradzić, jak szczegółowe dane na temat swoich użytkowników przechowują w cyfrowych archiwach. W głośnej sprawie śmierci Victora Collinsa, którego ciało znaleziono w domu Jamesa Batesa w 2015 r., Amazon odmówił władzom przekazania zarejestrowanych rozmów przez głośnik Echo z asystentką głosową Alexa, powołując się na zapisy w konstytucji. Na wniosek samego oskarżonego, dane ostatecznie zostały udostępnione, po czym prokuratura wycofała zarzuty wobec Batesa.

W tym roku po raz kolejny zrobiło się głośno o Aleksie. Podczas kłótni pewnego amerykańskiego małżeństwa inteligentny głośnik błędnie rozpoznał jedno z wypowiadanych słów jako „Alexa”, potem w natłoku wypowiadanych słów usłyszał polecenie „wyślij”, a następnie przechwycił słowo podobne do nazwiska znajomego małżeństwa i w ten sposób cała rozmowa została przesłana bez wiedzy użytkownika do tego znajomego. W wydanym oświadczeniu Amazon stwierdził, że doszło do nieprawdopodobnego zbiegu okoliczności. Firma odmówiła jednak zwrotu pieniędzy za zakup urządzenia, kiedy para postanowiła oddać je w ramach reklamacji.

– Musimy być tego świadomi, że nawet kiedy nie jest to naszą intencją, to taki asystent może zadziałać, bo nie ma tam jakiejś bardzo zaawansowanej sztucznej inteligencji po drugiej stronie. Są algorytmy, które wychwytują słowa klucze. Jeżeli gdzieś w naszej rozmowie, która jest prowadzona w bliskiej odległości od takiego asystenta, te słowa klucze padną, to asystent się uruchomi i wykona polecenia, których nie chcieliśmy, a które pasowały do tego wzorca – tłumaczy Andrzej Nowodworski.

Firma Checkmarx zajmująca się badaniem bezpieczeństwa oprogramowania udowodniła, że niepozorny głośnik od Amazonu może się zmienić w urządzenie szpiegujące. Programistom udało się opracować prostą aplikację z kalkulatorem, w której zaszyto kod aktywujący nieustanne nagrywanie tego, co słyszy Alexa. Gdyby takie oprogramowanie trafiło w ręce cyberprzestępców, mogliby oni nieustannie nasłuchiwać, co dzieje się w otoczeniu ich potencjalnych ofiar. Przechwycenie poufnych rozmów mogłoby posłużyć do przeprowadzenia szantażu albo zaplanowania kradzieży.

– Często asystenci głosowi czy tego typu systemy są podłączane do większej infrastruktury typu inteligentny dom lub w firmach, w salach konferencyjnych. Możemy za pomocą takiego inteligentnego asystenta wydawać jakieś polecenia i to powoduje obniżenie poziomu bezpieczeństwa całego systemu, ponieważ system jest tak bezpieczny, jak bezpieczne jest najsłabsze ogniwo – ostrzega ekspert.

Wraz z popularyzacją Internetu Rzeczy zagrożenia ze strony inteligentnych asystentów będą coraz większe. Jeśli haker włamie się do naszego komputera i będzie w stanie wyemitować komendę głosową, otrzyma praktycznie nieograniczony dostęp do naszych prywatnych danych oraz samego mieszkania. Pozwoli to np. zdalnie wyłączyć system monitoringu, a nawet otworzyć inteligentny zamek w drzwiach naszego domu.

Jeśli za pośrednictwem asystenta głosowego przestępcy uzyskają dostęp do nagrań z monitoringu, będą wiedzieli, kiedy najlepiej dokonać włamania i gdzie mieszkańcy trzymają swoje oszczędności. Wejdą do mieszkania niezauważeni i opróżnią je w kilkanaście minut, zanim ktokolwiek zdąży zareagować.

– Hakerzy to też ludzie, nie utrudniają sobie pracy, idą najprostszą możliwą ścieżką. Dla producentów priorytetem jest funkcjonalność, a nie bezpieczeństwo. Doskonały przykład mamy w samochodach, gdzie nie da się włamać do samochodu, ale okazało się, że poprzez system multimedialny, który jest podłączony do internetu, można się dostać do komponentów samochodu i wydawać im różne polecenia. Tutaj jest analogicznie – jeżeli dostaniemy się do systemu inteligentnego domu, zarządzania salą konferencyjną czy jakiegoś innego systemu poprzez takie słabe ogniwo, to jesteśmy już na o wiele lepszej pozycji i mamy większe pole manewru jako hakerzy – twierdzi współwłaściciel Immunity Systems.

Według analiz przeprowadzonych przez firmę badawczą Market Research Future, branża inteligentnych asystentów do 2023 roku osiągnie wartość 7,8 mld dol. W najbliższych latach będzie rozwijać się w tempie niemal 40 proc. średniorocznie.