Polacy zbadali, jak Brytyjczycy hejtują naszych rodaków przed Brexitem. Wnioski są porażające

Adam Nowiński
Polacy ze startupu Samurai Labs pokazali, że hejt w sieci się przed nimi nie ukryje. Stworzony przez nich system jest do tego stopnia dokładny, że zatrudniła ich... brytyjska policja. Po co? Żeby zbadać obraźliwe treści wobec Polaków przed Brexitem. Okazało się, że hejt wobec naszych rodaków na Wyspach wzrósł przez ostatni rok o ponad 50 proc. O działaniu systemu i wnioskach z jego pracy rozmawiamy z Michałem Wroczyńskim i Gniewoszem Leliwą, właścicielami Samurai Labs.
Od lewej Grzegorz Rutkiewicz, Michał Wroczyński i Gniewosz Leliwa – to ich firma bada hejt w Wielkiej Brytanii. Mat. Samurai Labs
Panie Michale, z wykształcenia jest pan lekarzem. Patrząc na pana pracę, nastawioną głównie na walkę z hejtem w internecie, można stwierdzić, że pomimo wszystko będzie pan ratował zdrowie i życie ludzi.

Michał Wroczyński: Zdecydowanie tak. Chociaż trzeba przyznać, że psychologia i medycyna mają dużo wspólnego z tym, czym się obecnie zajmujemy, czyli z walką z cyberprzemocą przy pomocy sztucznej inteligencji. Gniewosz też ma zupełnie inne wykształcenie. Jest fizykiem kwantowym, a tworzy technologię rozumienia języka naturalnego i modele językowe, dzięki którym Samurai może precyzyjnie rozpoznać, co jest przemocą, a co zwykłą rozmową.


Ale to właśnie wasze zainteresowania, czy wspomniane wykształcenie medyczne sprawiły, że zajęliście się problemem mowy nienawiści i hejtem w internecie? Skąd pomysł na stworzenie systemu Samurai?

Michał Wroczyński: Samurai to nasz najnowszy projekt. Wcześniej, na początku lat dwutysięcznych, stworzyliśmy system Cerber, który pomagał wykrywać w sieci pedofilów i drapieżców seksualnych. Wtedy jednak było jeszcze trochę za wcześnie, zarówno pod względem technologicznym, jak i społecznym, żeby kompleksowo zajmować się tematem przemocy w sieci. Sytuacja bardzo się zmieniła przez ostatnich kilka lat, więc
postanowiliśmy działać i obecnie walka z cyberprzemocą jest naszym głównym wyzwaniem.

W dużym uproszczeniu system Samurai pozwala wykrywać treści hejterskie w internecie. Ale jak dokładnie on działa? Jak bardzo jest dokładny, czy potrafi na przykład rozpoznać sarkazm lub mowę zależną?

Gniewosz Leliwa: Współcześnie, dominującym podejściem do wykrywania cyberprzemocy - i szerzej, do rozumienia języka naturalnego - jest uczenie maszynowe reprezentujące tzw. drugą falę sztucznej inteligencji. Polega to na tym, że najpierw przygotowujemy ogromne zbiory danych, w których to ludzie oznaczają czy dany wpis zawiera treści przemocowe czy nie, a następnie trenujemy model sztucznej inteligencji w oparciu o te zbiory.

Taki model uczy się jak rozpoznawać cechy charakterystyczne treści przemocowych i na tej podstawie klasyfikować nowe wpisy. Rozwiązania drugiej fali świetnie sprawdzają się w rozpoznawaniu dźwięku czy obrazu, ale bardzo często zawodzą w obliczu złożoności i bogactwa ludzkiego języka.

My jesteśmy pionierami trzeciej fali sztucznej inteligencji, która oprócz zdolności do uczenia się z danych, posiada także umiejętność dedukcji czy wnioskowania w oparciu o wiedzę ekspercką (np. od psychologów) i językową (np. w jaki sposób ludzie używają języka do obrażania się nawzajem). Dzięki temu potrzebujemy znacznie mniej danych, żeby nauczyć nasz system jak rozpoznawać nowe zjawiska cyberprzemocy oraz osiągamy bardzo wysoką precyzję.

Nasz system nie jest już wyczulony tylko na słowa klucze, czyli np. na przekleństwa czy wulgaryzmy, ale jest w stanie rozpoznawać takie zjawiska językowe jak negacja, wspomniana przez pana mowa zależna czy złożone konstrukcje warunkowe i uwzględnić tę wiedzę w procesie detekcji.

Jeśli zaś chodzi o rozpoznawanie sarkazmu, to jest różnie, ale do pewnego stopnia nasz system i z nim sobie radzi. Proszę zauważyć, że wielu ludzi ma problem z wyłapywaniem sarkazmu, więc dla uczącej się maszyny jest to nie lada wyzwanie.

Wiemy, że użyliście Samuraja na Wyspach Brytyjskich, żeby zbadać tam hejt na Polakach. Skąd w ogóle wybór Wielkiej Brytanii?

Michał Wroczyński: Jednym z naszych głównych zadań na co dzień jest ochrona osób grających w gry online i właśnie tam do tej pory przede wszystkim działał Samurai. Pewnego dnia zostaliśmy zaproszeni do wzięcia udziału w brytyjskim projekcie naukowców z HateLab (jednostka badawcza uniwersytetu w Cardiff), którzy wraz z policją zajmowali się wcześniej badaniem mowy nienawiści i przemocy z nienawiści w Wielkiej Brytanii w kontekście zbliżającego się brexitu.

Nasze algorytmy pozwoliły wykryć, monitorować i lepiej zrozumieć, czym jest cyberprzemoc na Wyspach Brytyjskich i jak się zmienia w kontekście zbliżającego się brexitu. Z uwagi na fakt, że na wyspach jest niemal milion naszych rodaków, problem ten zyskuje na znaczeniu z uwagi na skalę przemocy wobec polskiej mniejszości.

Wnioski waszych wspólnych badań są zatrważające – w ciągu roku wzrosła ilość obraźliwych treści względem Polaków o 57 proc.

Michał Wroczyński: Proszę rozejrzeć się dookoła. Problem wzrostu poziomu przemocy nie ogranicza się tylko do internetu, ale przekłada się też na inne aspekty życia społecznego. Hejt w sieci przekłada się na przestępstwa z nienawiści popełniane "w realu".

Rzeczywiście, w Wielkiej Brytanii badamy konkretnie treści przemocowe skierowane do mieszkających tam Polaków. Potrafimy rozpoznać kiedy mamy do czynienia z nawoływaniem do wyjazdu, a kiedy z groźbą dotyczącą życia lub zdrowia. Dzięki temu tworzona jest interaktywna mapa pozwalająca odpowiednim służbom reagować w miejscach zapalnych.
Temat hejtu w Polsce jest coraz częściej elementem debaty publicznej.Fot. Cezary Aszkiełowicz / Agencja Gazeta

W Polsce też teraz dużo mówi się o mowie nienawiści i hejcie w internecie. Czy wasz system można wykorzystać w naszym kraju? Macie już jakieś plany, propozycje, może od policji?

Michał Wroczyński: Obecnie skupiamy się na rynkach angielskojęzycznych, ale bardzo chcielibyśmy robić więcej w języku polskim. Szczególnie w zakresie ochrony przed cybernękaniem i pedofilią. Oczywiście staramy się zainteresować problemem cyberagresji osoby na różnych szczeblach, czy to samorządowym, czy centralnym, niezależnie od przynależności politycznej, bo jest to poważny i powszechny problem.

W cyberprzestrzeni prowadzone są regularne wojny, w których głównym orężem jest dezinformacja i hejt. Proszę spojrzeć chociażby na to, co działo się w Stanach Zjednoczonych w związku z ostatnimi wyborami prezydenckimi. Pojawiło się wiele opinii o tym, że zostały zmanipulowane przez rosyjskich hejterów i trolli. Okazuje się, że w Polsce w tej wojnie nie mamy nawet radarów. Ochrona Polaków w Wielkiej Brytanii to dopiero pierwszy krok. Chcemy, aby Samurai stał się globalnym systemem ochrony w cyberprzestrzeni.

Gniewosz Leliwa: Dodatkowo, należy zaznaczyć jak istotne jest rozróżnienie różnych typów przemocy przez Samurai’a. Sam fakt, że wykryjemy przemoc niekoniecznie pozwala nam jeszcze na nią zareagować. Czym innym jest bowiem atak personalny, groźba utraty życia i atak pedofilski.

Każdy typ przemocy reprezentuje inny poziom zagrożenia i wymaga innego działania. Tak jest w przypadku wykrywania hejtu wobec Polaków na Wyspach. Inaczej reaguje się na komentarze dotyczące pobierania benefitów socjalnych, a inaczej na realną groźbę śmierci.

Michał Wroczyński: To chyba kluczowa funkcja naszego systemu, którą można wykorzystać także w przypadku powielania nieprawdziwych informacji. Samurai wykryje taką treść i może automatycznie zadziałać, podejmując próbę jej odkłamania.

To jak prowadzenie dyskursu online, w którym prezentowane są kontrargumenty oparte na prawdziwych informacjach. W tym właśnie widzimy przyszłość systemów, które by nas aktywnie broniły, a nawet wyprzedzały atak i pomagały rozwiązywać wiele konfliktów jeszcze przed ich rozpoczęciem.

Czyli takim rozwiązaniem powinien być też żywo zainteresowany Google i Facebook, które przecież walczą z fake newsami...

Michał Wroczyński: Na pewno przyspieszyłoby ono ich czas reakcji. Obecnie zgłoszone treści czekają na działanie moderatora. Naszym zdaniem w wielu przypadkach nie można pozwolić sobie na czekanie na reakcję. Trzeba działać natychmiast, w czasie rzeczywistym, a nie po 24 godzinach od zgłoszenia.

Macie więc panowie gotowe rozwiązanie problemu z cyberprzemocą w sieci. Zaufał wam m. in. Robert Lewandowski, który zainwestował w waszą firmę, ufa wam brytyjska policja. To świetne referencje. Dlaczego więc nie widzi tego polski rząd?


Michał Wroczyński: Tak jak wspomniałem – bardzo chcielibyśmy móc robić to, co robimy w języku angielskim, także w języku polskim. Niestety, wiąże się to z koniecznością dużych inwestycji, ponieważ rozwój wybranego języka to miliony dolarów i tylko odpowiednie programy są w stanie zapewnić odpowiednie wsparcie finansowe.

Gniewosz Leliwa: To właśnie – mówiąc kolokwialnie – głębokie wejście w dany język pozwala nam na szybkie rozwijanie systemu i osiąganie bardzo wysokiej precyzji. I tak naprawdę ten element jest najtrudniejszy i najkosztowniejszy, bo wymaga pracy sporego zespołu naukowców i inżynierów. Potem, proces rozwijania systemu o nowe zjawiska cyberprzemocy jest już stosunkowo prosty, o ile tak można powiedzieć o technologii sztucznej inteligencji.