Sztuczna inteligencja pomaga oszustom „na wnuczka”

Fałszowanie głosu dzięki sztucznej inteligencji (AI) to nowy sposób oszustów na wyłudzenie pieniędzy. Pierwsze przypadki miały miejsce w Niemczech i w stanie Arizona w USA. Potem tego rodzaju metody „rozlały” się na cały świat. Oszuści dzwonią do bliskich używając głosu do złudzenia przypominającego syna lub córkę – głos prawdopodobnie został wygenerowany przy użyciu sztucznej inteligencji. Policjanci ostrzegają, że podobnych przypadków będzie coraz więcej, bo wyłudzacze mają coraz łatwiejszy dostęp do AI.

Oszuści kradną nasze głosy. Wykorzystując do tego Internet i wszelkie udostępniane przez nas materiały, które trafiają do mediów społecznościowych. Do takiej czynności potrzebny jest krótki zapis głosu członka rodziny, który oszuści mogą uzyskać z opublikowanych przez nas materiałów np. na portalach społecznościowych.

Publikowane przez nas lub naszych członków rodziny wypowiedzi w sieci mogą zostać wykorzystane przez oszustów. Wystarczy kilka sekund próbki dźwiękowej, by odpowiedni program wygenerował podróbkę głosu z dowolną treścią. Narzędzia bazujące na wykorzystaniu sztucznej inteligencji potrafią sklonować głos każdego człowieka! Nowoczesna technologia umożliwia oszustom również podszywanie się pod numery telefonów rodziny i przyjaciół. Dzięki temu oszust w łatwy sposób może wyłudzić od nas pieniądze, czy nasze dane podkładając głos w trakcie rozmowy telefonicznej np. członka naszej rodziny, jak również podkładając znany nam numer telefonu.

Jak można się przed tym bronić? Są sposoby, całkiem proste.  W przypadku „niecodziennej” rozmowy telefonicznej dotyczącej przykrych zdarzeń, zasobów finansowych, czy danych osobowych ułożyć sobie hasło lub zdanie, które zna tylko i wyłącznie nasz rozmówca.

W przypadku jakiejkolwiek wątpliwości podczas rozmowy telefonicznej z rozmówcą, braku hasła lub umówionego zdania, możemy mieć uzasadnione podejrzenie, że nie rozmawiamy z naszym wnuczkiem, synem czy córką, a z oszustem.

Nie każdy, kto jest po drugiej stronie słuchawki, może mieć wobec nas dobre zamiary.

W sytuacji gdy podejrzewamy, że staliśmy się celem oszustwa z wykorzystaniem klonowania głosu, warto pamiętać o kilku wskazówkach, mogących pomóc w weryfikacji osoby po drugiej stronie słuchawki:

– podczas rozmowy telefonicznej, prócz braku ustalonego wcześniej hasła lub umówionego zdania możemy zadać szczegółowe pytanie. Jeśli mamy wątpliwości dotyczące tożsamości osoby, z którą rozmawiamy, zadajmy jej osobiste pytanie , na które odpowiedzi nie można znaleźć w internecie;

– skontaktujmy się z bliską nam osobą – od razu zweryfikujmy, czy informacje, które podaje rozmówca po drugiej stronie słuchawki są prawdziwe. To zajmie tylko chwilę! Zadzwońmy na numer, który znamy i upewnijmy się, że należy do bliskiej nam osoby, bądź skontaktujmy się z kimś, kto może przebywać w jej obecności;

– podejrzane prośby – zachowajmy szczególną czujność, kiedy osoba, z którą rozmawiamy, prosi o przesłanie pieniędzy w sposób utrudniający zlokalizowanie odbiorcy. Zwróćmy uwagę na prośby o podanie kodów kart podarunkowych, na przelewy w kryptowalutach czy na płatności za pośrednictwem BLIK. Zastanówmy się na spokojnie, czy nasz bliski faktycznie może potrzebować pomocy finansowej.

Pamiętajmy o tym, aby nie dać się wprowadzić w błąd, nie ulegać poleceniom rozmówcy. Tylko zdecydowane działanie z naszej strony ochroni nasze dane osobowe, hasła czy pieniądze.

Sztuczna inteligencja (AI) pozwala stworzyć głos łudząco podobny do naturalnego. Podobnych przypadków jest coraz więcej, a jeszcze kilka lat temu technologia nie była tak łatwo dostępna, jak teraz. W 2023 roku oszuści mają ją na wyciągnięcie ręki i mogą używać jej do nowych oszustw – informuje niemiecka policja. W Niemczech przypadków jest już tak wiele, że służby nie nadążają z przyjmowaniem podobnych zgłoszeń i wyjaśnianiem spraw. 

– Głos bez wątpienia brzmiał, jak głos mojego dziecka – opowiedziała portalowi Busch. Mąż kobiety nie uwierzył oszustom i postanowił zadzwonić do syna. Jak się okazało ten nie uczestniczył w żadnym wypadku, a w tym czasie przebywał w domu.

Głos był tak łudząco podobny, że małżeństwo podejrzewa, że ktoś użył sztucznej inteligencji do sklonowania głosu ich syna. 

O sprawie zrobiło się głośno w całych Niemczech, do tego stopnia, że temat postanowił podjąć program śledczy SWR “Vollbild”. Śledztwo dziennikarskie dowiodło, że oszuści w większości przypadków wykorzystują tego samego programu do podrabiania głosu, a w tym samym czasie, co próbowano oszukać rodzinę Busch, w całych Niemczech wykonano kilkadziesiąt podobnych telefonów w celu wyłudzenia pieniędzy.

Głos w sprawie zabrało Federalne Ministerstwo Spraw Wewnętrznych. – Każdego dnia stoimy przed różnorodnymi i złożonymi wyzwaniami związanymi z gwałtownym rozwojem technologicznym – stwierdzili urzędnicy. Ze statystyk wynika, że tylko w 2022 roku w samej Nadrenii Północnej-Westfalii doszło do ponad 8 tys. prób wyłudzenia pieniędzy m.in. metodą “na wnuczka” – doskonale znaną również w naszym kraju. Liczba połączeń telefonicznych z wykorzystaniem sztucznie stworzonego głosu obecnie nie jest rejestrowana – poinformował Federalny Urząd Policji Kryminalnej.  

Źródło: policja.pl, biznes.interia.pl

Fot. policja.pl