Kobieta pokazała, jak złodzieje sklonowali jej głos i na Facebooku próbowali wyłudzić kod BLIK
redakcja naTemat.pl
12 marca 2024, 12:50·3 minuty czytania
Publikacja artykułu: 12 marca 2024, 12:50
Nowa wersja starego i znanego oszustwa. Zapewne słyszeliście już o sytuacjach, w których ktoś włamał się na czyjeś konto na Facebooku i w jego imieniu prosił bliskich na Messengerze o kod BLIK, bo "stało się coś pilnego". Teraz złodzieje stali się bardziej perfidni i zaprzęgli do tego sztuczną inteligencję, która... udaje głos osoby, której się włamali na konto. Wysyłając wiadomość głosową, proszą bliskich o pieniądze, tym samym uwiarygadniając się w oczach ofiary.
Reklama.
Reklama.
Pewna użytkowniczka Facebooka o imieniu Karolina podzieliła się na swoim profilu historią, która przytrafiła się jej i jej bliskim. To skomplikowana próba wyłudzenia pieniędzy, która bazuje na tradycyjnej już metodzie oszustwa, ale wspiera się zaawansowaną technologią sztucznej inteligencji.
– Ku przestrodze! Dzisiaj na moje konto na Facebooku włamano się i rozsyłano wiadomości głosowe moim tonem głosu (technologia AI na to pozwala). Oszust prosił o podanie kodu blik, pisał w moim imieniu, żartował, używał emotek itp. Zgłosiłam sprawę na policję, gdzie mnie poinformowano, że spotykają się pierwszy raz z głosówką. Uważajcie na siebie i poinformujcie rodzinę i znajomych!!! To, że słyszą wasz głos, to nie znaczy, że to Wy! Nie klikałam w żadne linki ani strony
I zamieściła screena pokazującego konwersację.
Oszustwo rozpoczęło się "po staremu" tj. od włamania na konto ofiary na Facebooku. Do tej pory ograniczało się ono jedynie do rozmowy tekstowej ze znajomymi, których prosi się o przesłanie kodu BLIK do wypłacenia pieniędzy z powodu "pilnej sytuacji".
Schemat działania przestępców jest przemyślany i zazwyczaj ten sam. Bazuje na personalnej znajomości i zaufaniu. Wysyłają oni wiadomości do znajomych ofiary z prośbą o pilne przesłanie pieniędzy, motywując to nagłą i nieoczekiwaną sytuacją życiową.
To, co wyróżniało opisywany przypadek spośród innych prób oszustwa, to użycie sztucznej inteligencji do generowania głosu ofiary. Logiczne, że jeśli słyszymy głos bliskiej osoby, to automatycznie nadajemy temu dużo większą wiarygodność.
Ta zaawansowana metoda manipulacji pokazuje, jak technologia AI może zostać wykorzystana w negatywny sposób, wzbudzając nowe obawy dotyczące prywatności i bezpieczeństwa online.
Dostępna niemalże od ręki technologia AI umożliwia sklonowanie głosu, a także bardzo realne tłumaczenie go nawet na inne języki, których na co dzień nie znacie. Pamiętajcie jednak, że nie można zrobić tego bez faktycznej próbki Waszego głosu. Natomiast niewykluczone, że złodzieje mogli uzyskać takie obszerne materiały źródłowe np. z Waszych stories na Instagramie lub TikToku, które nagrywacie.
Już w zeszłym roku Microsoftzaprezentował VALL-E. To kolejne narzędzie działające w oparciu o AI. System kopiuje barwę głosu, a także styl mówienia i emocje nagranej osoby. Jest w stanie "nauczyć się" naśladować głos, korzystając z zaledwie 3-sekundowej próbki
Oszustwa tego typu będą stawać się coraz bardziej zaawansowane wraz z rozwojem technologii. Ważne jest, by być świadomym potencjalnych zagrożeń i stosować najlepsze możliwie zabezpieczenia. Absolutną podstawą jest dwuetapowa weryfikacja podczas logowania. W ten sposób nawet jeśli złodziej przejmie Wasze hasło, to nie zaloguje się do Waszego konta bez potwierdzenia np. kodem SMS wysłanym na Wasz numer telefonu.
Ponadto niezwykle ważne jest, aby podchodzić z ostrożnością do wszelkich nieoczekiwanych próśb o wsparcie finansowe, nawet jeśli wydają się pochodzić od bliskich znajomych czy członków rodziny. Ostatecznie zawsze możecie zadzwonić i zapytać. W najgorszym wypadku stracicie kilka minut.