Do bankovního světa se snaží proniknout nový druh podvodu – video vytvořené pomocí umělé inteligence. Buďte opatrní. Na zaplacení dluhu nebo k nové investiční příležitosti vás mohou přemlouvat falešné syntetické spoty.
„Toto jsme ještě nezažily,“ zní jedním hlasem z tuzemských bank. Na twitteru se před několika dny objevilo video, v němž se údajný pracovník Fio banky snaží upozornit klienta, že nedokončil transakci k nákupu cenných papírů energetické společnosti RWE ve výši 4500 korun.
Klient banky dostal na začátku příběhu odkaz na video v e-mailu pár dní poté, co na sociálních sítích reagoval na nabídku koupi akcií firmy. E-mailová zpráva mu byla podezřelá a ačkoli se společností komunikoval a poskytl jí své údaje, protože ho oslovovala jeho jménem, upozornil na ni hned svou banku.
„To, že se podvodník vydává za banku, je vcelku časté. Zatím to ale bylo hlavně ve formách e-mailů nebo SMS (phishing). Někdy útočníci zase klientům telefonují (vishing), a dokonce i číslo, které se klientům zobrazí, vypadá jako naše. Tento případ, kdy podvodník vytvoří videovýzvu, v níž se zaštiťuje naším jménem, je ale zcela nový,“ říká Jakub Heřmánek, mluvčí Fio banky.
Banka podle něj považovala za nutné, aby lidé o takovémto způsobu podvodného jednání věděli a měli možnost se na něj připravit a nenaletět na něj, a proto sama příspěvek umístila na twitter a distancovala se od něj.
„Podvodníci v tomto případě nejspíš použili některou ze služeb na generování tzv. mluvící hlavy. Vybrali nějakou postavu, která vyhovovala představám o reprezentatovi banky a vypadala důvěryhodně. Pak napsali text, který může být snadno upraven na míru příjemci,“ domnívá se kolega Pavel Kasík, který se generátorům fungujících na principu neuronových sítí dlouhodobě věnuje. „Počítač se postará o syntézu hlasu i o to, aby pohyb vygenerovaných úst odpovídal jednotlivým slabikám.“ Vytvořit takové video je skutečně otázkou necelé minuty.
Přestože výsledek zdaleka není dokonalý, může někoho zmást. „Lidé už obvykle vědí, že nemohou věřit každé e-mailové zprávě. Ale u takovéto zprávy mohou zaváhat. Nejspíš si nebudou myslet, že jde o reálného člověka – na to působí celý projev moc roboticky,“ myslí si Kasík. „Ale mohli by třeba získat dojem, že banka experimentuje s nějakým novým hlasovým automatem. Lze předpokládat, že podobných pokusů bude přibývat s tím, jak se generování realistických videomontáží zjednodušuje a zlevňuje.“
Zatím velmi neobvyklý podvod
S podobnou formou podvodu se dosud nesetkaly ani ostatní banky. „Žádné takové video jsme dosud nezaznamenali,“ uvedl Lukáš Kropík z tiskového oddělení České spořitelny. V minulosti se podvodníci snažili nalákal lidi na investice pomocí falešných bannerů s podobou generálního ředitele banky, ale o falešný spot se zatím nikdo z nich nepokusil.
Videopodvod nezachytily zatím ani Raiffeisenbank, Moneta Money Bank, UniCredit Bank, Air Bank, Hello bank! ani Creditas. „S podvodem obohaceným o AI (umělou inteligenci) jsme se zatím v našem prostředí nesetkali. Zrovna tento pokus (Fio) nepatří k těm nejzdařilejším, ale s rychlým rozvojem v této oblasti se dá očekávat, že podobné podvrhy budou v dohledné době pro uživatele na první pohled věrohodné,“ říká mluvčí banky Creditas Lucie Brunclíková.
Využití umělé inteligence v sociálním inženýrství je podle ní další směr útoku a vede k rozšíření a bohužel i zkvalitnění podvodů. „Jediná skutečná ochrana je kontinuální vzdělávání klientů a pracovníků banky, abychom byli schopni na toto dynamické odvětví správně reagovat a tím minimalizovat škody,“ dodává Brunclíková.
Max banka je novou formou podvodu překvapena. „Zatím jsme se s tím nesetkali. Uvedené podvodné jednání patří do kategorie takzvaného „Deepfake“, což je relativně nový způsob podvodu založený na syntetickém, uměle vytvořeném multimediálním obsahu, který zneužívá již existující audio/video prezentace osob či institucí. Zatím se používal spíše pro cizojazyčné hoaxy či politicky motivované dezinformační kampaně,“ říká mluvčí banky Anna Bakošová.
Podle ní je to tím, že klienti nejsou na takovouto formu komunikace ve vztahu k bance zvyklí a videa působí velice uměle a nedůvěryhodně (na rozdíl třeba od vishingu).
„Zorganizovat takovýto útok je také technicky komplikovanější než dosavadní formy podvodu (příprava videa, doručení, získání zpětné vazby od uživatele). Jsme si ale vědomi, že je jen otázkou času, kdy se podobné pokusy rozšíří. Zmíněný pokus je první vlaštovkou, podobné podvody se budou bohužel technicky zdokonalovat a pracovat s důvěryhodnějšími scénáři,“ obává se podobně jako mluvčí Creditas i mluvčí Max banky Bakošová.
Horšího dopadu nového druhu podvodu se obává i Moneta Money Bank. „U nás jsme se s tím nesetkali, ale uvědomujeme si, že tento druh podvodů může mást lidi ještě více než dosud například pomocí podvodných telefonátů. Video je podle nás názornou ukázkou Deepfake videa, které neobsahuje hlas skutečného podvodníka, jak tomu bylo v případě podvodných telefonátů, kdy hovor probíhá naživo s klientem banky,“ říká mluvčí banky Zuzana Filipová.
Zachycený hlas podvodníka například v podobě nahrávky na call centru, je podle ní totiž výborným důkazem pro následné trestní řízení, podle něhož lze identitu volajícího jednoznačně potvrdit či vyloučit. „Kriminalistická audioexpertiza je v podstatě něco jako daktyloskopie. U Deepfake videa to ale bude s identifikací podvodníka podle jeho hlasu velmi obtížné,“ uvědomuje si Filipová.
IT Expert: Podvody jsou tvrdý byznys
Podle Marka Sušického z Fakulty informačních technologií ČVUT v Praze lze z videa poznat, že údajný zaměstnanec Fio banky má uměle vygenerovaný hlas, ústa se mu téměř neotvírají a některá vyřčená slova vypadají jako nepodařený dabing.
Kdo však podle něj nemá s umělou inteligencí žádné zkušenosti, mohl by se takovýmto videem nechat zmást. „Na škále nula až 100 bych tomu dal 80 až 85 bodů,“ konstatuje Sušický z Laboratoře otevřených dat (OpenDatLab) FIT ČVUT v Praze.
O skutečný Deepfake, tedy falešné video napodobující cizí identitu, se však podle něj jedná až v okamžiku, kdy je umělé video vytvořené podle osobnosti, která je natolik známá, že její prohlášení může mít velký vliv na rozhodování ostatních.
V politice se takovéto video s podobou bývalého amerického prezidenta Baracka Obamy začalo šířit v roce 2011. V Česku se objevilo falešné video na politické úrovni před týdnem. Dnes už nově zvolený prezident Petr Pavel v něm na dotaz z davu hovořil o vstupu Česka do války s Ruskem. Ve skutečnosti však nic takového neřekl.
V bankovním světě by pak Deepfake bylo například video, kde by z důvodu dalšího nárůstu inflace doporučoval hodně utrácet falešný guvernér ČNB Aleš Michl.
Vyrobit syntetické video však není podle Sušického tak jednoduché. „Absolvent naší fakulty by to bankovní video asi dokázal vyrobit, ale jinak se na to specializují organizované skupiny a je to tvrdý byznys. Jedná se hlavně o skupiny z východu, které si to na nás zkoušejí a své znalosti „vyvážejí“ dál,“ domnívá se odborník na umělou inteligenci.
Komentáře