Sztuczna inteligencja już zastępuje dziennikarzy. Coraz trudniej odróżnić treści tworzone przez maszynę

Sztuczna inteligencja już zastępuje dziennikarzy. Coraz trudniej odróżnić treści tworzone przez maszynę

Coraz więcej działań dziennikarzy będzie przejmować sztuczna inteligencja. Microsoft niedawno zerwał współpracę z dziennikarzami kontraktowymi. Zastąpi ich SI, która dobierze i opublikuje odpowiednie materiały w serwisie MSN.com. Wykorzystując proces uczenia maszynowego, aplikacje są już w stanie wygenerować długi artykuł na podstawie zaledwie kilku słów lub nieskładnych gramatycznie zdań. Funkcjonalność sztucznej inteligencji w automatycznym tworzeniu dłuższych form wypowiedzi coraz częściej będzie wykorzystywania także do generowania fake newsów. Niektóre generatory umożliwiają więc nie tylko zautomatyzowane pisanie tekstów, lecz także wykrywanie tych, które napisał robot.

– Możliwości analizy języka bardzo się rozwinęły w ciągu ostatnich miesięcy, co wiąże się z wypuszczeniem pewnych modeli przez OpenAI, które są wytrenowane na całym dostępnym tekście w internecie. Są one w stanie wytworzyć bardzo składny i sensowny język na podstawie bardzo małej ilości danych – przekonuje w rozmowie z agencją informacyjną Newseria Innowacje Filip Kozera, założyciel Kristalic.

W lutym 2019 roku OpenAI zaprezentowało swoje narzędzie GPT-2, które generuje przekonujący, lecz fałszywy tekst. Sztuczna inteligencja uczyła się gramatyki i budowała zasób językowy na podstawie zbioru 40 GB tekstu obejmującego 8 mln stron internetowych. OpenAI postanowił jednak wówczas nie upubliczniać GPT-2 w obawie przed możliwymi szkodami związanymi z możliwością wykorzystania narzędzia do produkowania fake newsów. Algorytmy sztucznej inteligencji są w stanie wygenerować zaawansowany i poprawny gramatycznie tekst na podstawie bardzo okrojonej informacji. Obecnie narzędzie znów jest dostępne.

– Za każdym razem, gdy piszę jakiś esej, na początku piszę go bardzo słabo gramatycznie, żeby były tam tylko fakty, i później go przerabiam. Po napisaniu tylko suchych faktów nasz algorytm wytworzył piękne gramatyczne zdania i dużo wypełniaczy. Można więc wyobrazić sobie świat, w którym można napisać cztery zdania i później zamienić to w 1,2 tys. słów, które zawierałyby te same informacje, tylko algorytm wypełniłby te luki bardzo ładnym angielskim – wyjaśnia Filip Kozera.

Już dziś praca algorytmów sztucznej inteligencji może być wykorzystana do zamiany notatek głosowych na tekst i ułożeniu go w gramatycznie poprawne i logicznie uporządkowane zdania. Co więcej, informacje z notatek można wyszukiwać na takiej zasadzie, na jakiej działają wyszukiwarki internetowe. Służy temu np. aplikacja Kristalic. Rozwiązanie dostarczane przez polski start-up obsługuje 120 języków i jest w stanie identyfikować rozmówcę. Może być też zintegrowane z popularną w czasie pandemii platformą Zoom.

Przyszłością w wykorzystywaniu sztucznej inteligencji do generowania tekstów może być natomiast poszerzenie ich funkcjonalności o nadawanie artykułowi czy wiadomości zabarwienia emocjonalnego czy narzuconego stylu wypowiedzi.

– Przykładowo piszemy wiadomość mailową, a później przesuwamy suwakiem, że powinna być dużo bardziej formalna, bo wysyłamy ją do naszego szefa. To jest oczywiście przykład, jednak po napisaniu jednego wyrażenia, np.: „przełóż spotkanie na jutro”, taki mail może zostać wygenerowany całkowicie samodzielnie. Te rozwiązania mogą być wykorzystywane wszędzie, gdzie człowiek pisze jakiś tekst, nawet obecnie w mailach nasza składnia jest już sprawdzana przez Grammarly. Dlaczego nie moglibyśmy np. zmienić stylu wypowiedzi? – zauważa założyciel Kristalic.

Funkcjonalność wynikającą z możliwości uczenia maszynowego można jednak wykorzystać również w odwrotnym modelu – do rozpoznawania potencjalnych fake newsów pisanych przez automat. Taką funkcję ma generator wiadomości Grover. Jest on w stanie identyfikować teksty stworzone na podstawie nie tylko własnych algorytmów SI, lecz także innych.

– Obecnie sztuczna inteligencja potrafi wytworzyć teksty, które są nie do odróżnienia od tekstów napisanych przez ludzi. Na pewno będziemy obserwować wysyp fake newsów, będą ich ogromne ilości. Prowadzone są prace nad tym, żeby rozpoznawać, co jest napisane przez człowieka, który często popełnia  jakieś błędy logiczne albo ma jakiś styl pisania, i to się porównuje do tego, co jest napisane przez algorytm, żebyśmy mogli w ogóle rozpoznawać, co zostało napisane przez algorytm, a co nie – mówi Filip Kozera.

Według Allied Market Research światowy rynek sztucznej inteligencji do 2025 roku osiągnie wartość niemal 169,5 mld dol.