Czy sztuczna inteligencja będzie nemezisem „fałszywych wiadomości”?
Opublikowany: 2020-04-18Celowe rozpowszechnianie nieprecyzyjnych wiadomości w celu szerzenia paniki i zamieszania było zmorą nadmiernej wymiany informacji w ciągu ostatnich pięciu lat. Od tworzenia uprzedzeń politycznych w celu zmiany wyników wyborów po wywoływanie paniki na świecie podczas pandemii COVID-19, fałszywe wiadomości mają trwały wpływ na kwestie społeczne i polityczne.
Istnieje rosnąca potrzeba posiadania silnego wroga w walce z fałszywymi wiadomościami. Wyrafinowane narzędzia sztucznej inteligencji stają się coraz szybsze, aby uruchamiać algorytmy sprawdzania faktów, aby oferować światu autentyczne wiadomości i wiarygodne informacje. Ale czy będą w stanie całkowicie wyeliminować fake newsy? To pytanie, z którym naukowcy danych wciąż się zmagają.
Spis treści
Wstęp
Rok 2019 był dla Indii rokiem obfitującym w wydarzenia: wybory powszechne, przerażający atak na personel bezpieczeństwa w Dżammu i Kaszmirze, zniesienie art. 370 i ogólnokrajowe protesty przeciwko ustawie o zmianie obywatelstwa, która zdominowała krajowe wiadomości i media. Równomierna i szeroka dystrybucja dezinformacji odbywała się dzięki WhatsApp, Twitterowi, Facebookowi i innym kanałom mediów społecznościowych.
Artykuł w Economic Times (link do: https://tinyurl.com/w86mclp ) oznaczył rok 2019 jako „rok fałszywych wiadomości” z zespołami sprawdzającymi fakty na palcach przez prawie cały rok. Wpływ fake newsów na społeczeństwo nie ograniczał się jedynie do różnic ideologicznych i politycznych. W wielu przypadkach było to tak niekorzystne, jak zabijanie mniejszości i przemoc wobec nich. Jako drugi co do wielkości użytkownik Internetu na świecie (560 000 000 osób), konsumpcja mediów społecznościowych w Indiach jako dążeniu do uzyskania cyfrowych możliwości jest nie do zniesienia, jeśli chodzi o fałszywe wiadomości.
Sytuacja nie różni się zbytnio w wiodącej gospodarce świata i latarni postępu: Stanach Zjednoczonych Ameryki. W tle demokratycznych wyborów w USA roiło się od hiperpartyzanckich poglądów z powodu fałszywych wiadomości, grających na lękach i uprzedzeniach obywateli. Powszechnie uważa się, że plany głosowania i zachowanie ludzi zostały poważnie zmienione podczas wyborów prezydenckich w Stanach Zjednoczonych w 2016 roku.
Nie trzeba dodawać, że sfabrykowane treści i ich przekonujący charakter mogą stanowić realne zagrożenie dla społeczeństwa i potrzebują silnej nemezis, która będzie w stanie wytrwale z nią walczyć.

Tworzenie fałszywych wiadomości
Był czas, kiedy dziennikarze i media byli głównymi źródłami informacji i musieli weryfikować źródła i informacje przed ich opublikowaniem. Ale w dążeniu do dostarczania wiadomości przez całą dobę, 7 dni w tygodniu tak nie jest. Fabryki propagandy pracują w godzinach nadliczbowych, aby wypełnić systemy wiarygodnie brzmiącą, ale nieautentyczną treścią.
Jak w tak dużych ilościach powstają fałszywe wiadomości polityczne, kulturalne i naukowe? Niestety, dużą rolę w tym ma do odegrania sztuczna inteligencja (AI). Narzędzia sztucznej inteligencji są wykorzystywane do wypełniania artykułów wiarygodnym tonem, aby pobudzić wirusowość. W połowie 2019 r. artykuł w BBC (link do: https://tinyurl.com/yxfsqzwe ) donosił o generatorze tekstu, zbudowanym przez firmę badawczą OpenAI, który może z łatwością tworzyć fałszywe wiadomości i obraźliwy spam w mediach społecznościowych.
Ich model, GPT-2, stworzony na podstawie ośmiu milionów stron internetowych, był w stanie odtworzyć styl i ton pierwotnego tekstu, ale został uznany za niebezpieczny ze względu na możliwość jego złośliwych aplikacji. Model został później wydany z mniejszą liczbą parametrów, ale pozostał kontrowersyjny ze względu na brak interwencji człowieka i kluczowe sprawdzenie faktów.
Tworzenie deepfake'ów (termin ukuty przez użytkownika Reddita w 2018 roku), który odnosi się do sfałszowanych filmów i zdjęć, które mogą nakładać się na sylwetkę i rysy twarzy osoby, to kolejna wersja fałszywych wiadomości, która może mieć drastyczne konsekwencje. Od szerzenia propagandy w celu podżegania do nienawiści i przemocy po oczernianie osób publicznych, deepfake są niesławne w wiadomościach od 2018 roku. Oprogramowanie oparte na sztucznej inteligencji może tworzyć, ulepszać i zmieniać mnóstwo danych wizualnych w zaledwie kilka minut, aby stworzyć szczegółowe obrazy z różnymi konsekwencjami .
Dystrybutorzy
Ludzi naturalnie przyciągają zachęcające do klikania nagłówki i podniecające treści. Biorąc pod uwagę łatwy dostęp, media społecznościowe są największym rozpowszechnianiem fałszywych treści. Niechętni sojusznicy fałszywych wiadomości, Facebook i Whatsapp stały się dwiema platformami mediów społecznościowych, które dominują w akcie rozpowszechniania fałszywych treści na świecie. Na całym świecie jest ponad 2,4 miliarda aktywnych użytkowników Facebooka (około 336 milionów w Indiach).
Statystyki aktywnych użytkowników WhatsApp wynoszą 1,6 miliarda na świecie (około 300 milionów w Indiach). Pomimo zespołów sprawdzających fakty i działań, takich jak ograniczanie wiadomości grupowych, pozostaje wiele do zrobienia, aby wyeliminować fałszywe wiadomości.
Jednym z najnowszych działań podjętych przez Facebooka w celu ograniczenia fałszywych wiadomości, poza zwiększeniem sprawdzania faktów, jest jego współpraca ze Światową Organizacją Zdrowia (WHO) w celu zwalczania dezinformacji związanych z COVID. Facebook dostarcza Światowej Organizacji Zdrowia bezpłatne reklamy, dzięki którym może rozpowszechniać autentyczne informacje wśród szerokiej bazy użytkowników. Wśród wielu aktualizacji dotyczących tego tematu, dyrektor generalny Facebooka, Mark Zuckerberg, ogłosił również, że firma współpracuje z krajowymi ministerstwami zdrowia i organizacjami globalnymi w celu publikowania aktualnych i dokładnych informacji na temat wirusa.

Czy sztuczna inteligencja jest odpowiedzią na walkę z fałszywymi wiadomościami?
AI może być mieczem obosiecznym. Chociaż jest aktywnie wykorzystywany do tworzenia wiadomości, interwencja AI może być również pomocna w jego identyfikacji i eliminacji. Sztuczna inteligencja jest teraz uważana za kamień węgielny do oddzielenia fałszywego od autentycznego w domenie wiadomości. Dzieje się tak, ponieważ sztuczna inteligencja ułatwia naukę zachowań poprzez rozpoznawanie wzorców. W ciągu ostatnich kilku lat opracowano wiele algorytmów, aby odróżnić treści tworzone przez ludzi od treści generowanych przez sztuczną inteligencję.
Ich podstawową funkcją jest wykrywanie fałszu wsparte technologią sieci neuronowych, która może wskazywać rozbieżności w artykułach i określać wiarygodność. Algorytmy są opracowywane poprzez dostarczanie im istniejących artykułów z różnych zestawów danych fałszywych wiadomości, utworzonych z ogromnych wirtualnych bibliotek danych zawierających autentyczne informacje i źródła. Teoretycznie sztuczna inteligencja może przeszukiwać strony internetowe, ważyć fakty, przewidywać reputację źródła, biorąc pod uwagę takie aspekty, jak nazwa domeny i pozycja w sieci Alexa oraz odkrywać sensacyjne słowa w celu wykrywania fałszywych wiadomości.
Oparte na sztucznej inteligencji narzędzia analityczne mogą również obejmować klasyfikację postaw, aby określić, czy nagłówek jest zgodny z treścią artykułu, przetwarzając tekst w celu przeanalizowania stylu pisania autora i wykorzystując analizę śledczą obrazu w celu wykrycia modyfikacji programu Photoshop. Może to pomóc w podkreśleniu anomalii i identyfikacji fałszywych wiadomości i sfałszowanych zdjęć.
Popularne narzędzia do identyfikacji i zwalczania fałszywych wiadomości
Kilka firm próbowało walczyć z fake newsami w ciągu ostatnich kilku lat. W ramach ostatnich wysiłków na rzecz walki z COVID-19 Facebook, Google, Twitter i YouTube połączyły siły, aby ograniczyć i wyeliminować błędne informacje dotyczące pandemii koronawirusa oraz wprowadzić oficjalne wytyczne na swoje platformy.
Jeszcze przed pilną potrzebą uzyskania autentycznych informacji w świetle COVID-19 firmy pracowały nad ograniczeniem systematycznego rozpowszechniania niedokładnych i wprowadzających w błąd informacji w Internecie i mediach społecznościowych. Platforma do sprawdzania faktów z siedzibą w Indiach MetaFact wykorzystuje sztuczną inteligencję do wykrywania i monitorowania fałszywych wiadomości w czasie rzeczywistym, przesiewając wszystkie dane generowane online.

„MetaFact buduje samowystarczalny, przyjazny dla użytkownika ekosystem do walki z fałszywymi wiadomościami, propagandą i dezinformacją dzięki wykorzystaniu sztucznej inteligencji, metadanych opartych na przetwarzaniu języka naturalnego (NLP) oraz platformy do dystrybucji informacji opartej na rozmowach. Dowiedz się więcej, jak media społecznościowe i inne branże wykorzystują sztuczną inteligencję.
Naszym celem jest budowanie świadomości w mediach społecznościowych w społecznościach i pomoc w kształceniu następnego pokolenia profesjonalistów poprzez wykorzystanie programów umiejętności korzystania z mediów cyfrowych, z silnym naciskiem na kraje rozwijające się” – mówi strona internetowa, która w widocznym miejscu wyświetla sprawdzone historie. Inne platformy, takie jak BOOM i Check4Spam, działają w tej samej domenie, weryfikując posty w mediach społecznościowych, aby sprawdzić historie i tagi, które mogą rozpowszechniać błędne informacje.
Globalnie firmy takie jak Spike, Hoaxy i CrowdTangle również monitorują zawartość, obejmując kolosalne ilości danych w celu sprawdzenia anomalii. Przewidują nawet, co zwiększy zaangażowanie i uważnie to monitorują. Firma o nazwie Pheme dokonała skoku technologicznego, aby poznać prawdziwość treści generowanych przez użytkowników i treści online. Gigant treści i technologii Google Trends udowadnia swoją wartość, obserwując wyszukiwania i wybierając nieprawidłowości. Istnieje wiele innych narzędzi, które znalazły oddźwięk wśród nadawców oferujących treści wolne od fałszywych treści.
Przyszłość fałszywych wiadomości
Ocena zasadności wiadomości, gdy są one „generowane maszynowo” przez sztuczną inteligencję, to tylko pierwszy krok do ich wyeliminowania. Ponieważ narzędzia takie jak autouzupełnianie, podsumowania tekstu itp. są szeroko stosowane zarówno przez wiarygodnych nadawców, jak i wydawców, konieczne jest wprowadzenie większej liczby kontroli w celu identyfikowania i usuwania fałszywych wiadomości.
Eksperci nadal mają nadzieję na przyszłość, w której każdy element treści będzie weryfikowany przez technologie sztucznej inteligencji w czasie rzeczywistym przed rozpowszechnieniem. Rosnąca świadomość fałszywych wiadomości to kolejny powód, dla którego uważają, że ludzie będą opierać się informacjom o nieautentycznym charakterze. Miejmy nadzieję, że dzięki połączeniu bardziej wyrafinowanych narzędzi sztucznej inteligencji i świadomości liczba fałszywych wiadomości będzie miała wpływ na świat.