Opracowano pierwsze przenośne urządzenie z interfejsem mózg–komputer. Pomoże m.in. w sterowaniu telewizorem i samochodem

0
Opracowano pierwsze przenośne urządzenie z interfejsem mózg–komputer. Pomoże m.in. w sterowaniu telewizorem i samochodem

Na rynku są już dostępne interfejsy mózg–komputer, które pozwalają kontrolować roboty przy użyciu samych myśli. Naukowcy opracowali bezprzewodowy i przenośny interfejs tego typu, który wykorzystuje algorytm głębokiego uczenia się do sterowania wózkiem inwalidzkim. Francuski start-up wprowadza zaś na rynek pierwsze urządzenie do noszenia z interfejsem mózg–komputer, które zapewnia kontrolę w czasie rzeczywistym. Może ono zrewolucjonizować branżę rozrywkową, pomóc w obsłudze telewizora czy samochodu.

– NextMind to elektronika do noszenia, której głównym zadaniem jest umożliwienie użytkownikowi kontrolowanie danego urządzenia lub komputera za pomocą mózgu – mówi agencji Newseria Innowacje Sune Alstrup ze start-upu NextMind. – Wcześniej nie mieliśmy dostępu do interfejsu mózg–komputer bez ogromnego zestawu okularów ani kontroli nad urządzeniem w czasie rzeczywistym. To pierwsze takie urządzenie do noszenia z interfejsem tego typu, które zapewnia kontrolę interfejsu w czasie rzeczywistym.

NextMind opracował interfejs mózgkomputer (BCI), który tłumaczy sygnały z kory wzrokowej na polecenia cyfrowe. To elektroencefalogram do noszenia – osiem elektrod przyczepionych do tylnej części głowy za pomocą prostego paska na czoło odbiera fale mózgowe z kory wzrokowej. Aby korzystać z urządzenia, użytkownik musi skoncentrować się na określonym obiekcie. Dzięki reakcji w korze wzrokowej generowane są wzorce fal mózgowych do odczytu maszynowego. Taki neurosynchronizm jest następnie wykorzystywany do przełożenia uwagi wzrokowej na polecenia komputera. W przyszłości, jak zapowiadają twórcy, urządzenie ma działać nawet przy zamkniętych oczach.

– Interfejs może być wykorzystywany w samochodzie, można także zmieniać kanały telewizyjne lub kontrolować za pomocą mózgu różne opcje w komputerze. Można sobie również wyobrazić grę, i to w dość niedalekiej przyszłości. Zestaw może mieć wbudowany czytnik, co pozwala zagrać w grę w wirtualnej rzeczywistości za pomocą mózgu, bez użycia rąk czy głosu, z wykorzystaniem do tego różnych metod obsługi jednocześnie. Używamy więc razem umysłu, głosu i gestów – tłumaczy Sune Alstrup.

Czytaj również:  Cyberspecgrupa wesprze rozwój polskiego przemysłu

Urządzenie umożliwia przełączanie kanałów telewizyjnych za pomocą umysłu, zmianę dźwięku czy wydawanie poleceń podczas gier. NextMind opracował też aplikację dla okularów rzeczywistości rozszerzonej. Wykorzystuje śledzenie wzroku, gesty i mowę w celu uzupełnienia sygnałów mózgowych.

– Będzie ono dostępne już niedługo, bo w drugim kwartale tego roku, za 399 dol. Jeśli ktoś posiada zestaw Oculus, będzie mógł tworzyć własną grę za pośrednictwem umysłu. To bardzo niedaleka przyszłość – przekonuje Sune Alstrup.

Interfejsy mózg–komputer pozwalają na coraz więcej. Ctrl-labs, nowojorski start-up, rozwija opaskę na rękę, która tłumaczy sygnały mięśniowo-mózgowe na polecenia interpretowane maszynowo. We wrześniu 2019 roku firmę przejął Facebook. Zespół naukowców z Carnegie Mellon University, we współpracy z University of Minnesota, korzystając z nieinwazyjnego interfejsu tego typu, opracował pierwsze w historii sterowane umysłem ramię robota. Dotychczas kontrola była możliwa tylko dzięki implantom. W przyszłości interfejs mózg–komputer mógłby zastąpić uwierzytelnianie za pomocą tradycyjnych haseł.

– Przez następne lata będziemy obserwować, jak technologia zmienia swoje zastosowania, zaczynając od sterowania telewizorem, a kończąc na byciu nieodłączną częścią naszej interakcji z urządzeniami – ocenia Sune Alstrup. – Sądzimy, że urządzeń z wbudowanym interfejsem będzie coraz więcej. Klienci będą potrzebowali różnych sposobów interakcji z takimi urządzeniami i będzie to możliwe dzięki interfejsowi mózg–komputer.