Майка от Аризона е дала емоционални показания, в които разказва за ужасяващо изпитание, при което измамници са използвали изкуствен интелект, за да имитират гласа на дъщеря ѝ инсценират фалшиво отвличане, с цел да поискат откуп. Нейната история разказва Daily Mail.

Дженифър ДеСтефано говори пред Сенатската комисия по правосъдие по време на изслушване във вторник, описвайки ужаса си при получаването на телефонно обаждане през април от измамници, които поискали 1 млн. долара за безопасното връщане на 15-годишната ѝ дъщеря Бри.

Макар че измамата станала ясна само за няколко минути, след като ДеСтафано се свързала с Бри и потвърдила, че тя е в безопасност по време на ски екскурзия, чистият страх, който майката изпитала, когато чула нещо, което звучало като молба на момичето за помощ, бил напълно реален.

Въпреки че Бри няма публични акаунти в социалните мрежи, гласът ѝ може да се чуе в няколко интервюта за училище и спорт, казва майка ѝ. Тя предупреждава родителите да знаят колко лесно измамниците могат да възпроизведат гласа на близък човек. 

ДеСтефано свидетелства, че това е било "типичен петъчен следобед", когато е получила обаждане от непознат номер, което решила да вдигне, мислейки, че може да е обаждане от лекар.

Вдигнах телефона "Здравей", на другия край беше дъщеря ми Бриана, която ридаеше и плачеше, казвайки "мамо" - разказа ДеСтефано пред сенатската комисия.

Майката първоначално помислила, че дъщеря ѝ се е наранила по време на ски екскурзията, и запазила хладнокръвие, като попитала момичето какво се е случило. 

"Бриана продължила с "мамо, обърках се", плачейки и ридаейки още повече. Без да се замисля, я попитах отново: "Добре, какво стана?" - продължава майката.

'Изведнъж един мъжки глас ѝ изръмжа да "легне и да си сложи главата назад". В този момент започнах да изпадам в паника. Загрижеността ми се засили и поисках да разбера какво се случва, но нищо не можеше да ме подготви за нейния отговор. 

"Мамо, тези лоши хора ме държат, помогни ми, помогни ми!!!" Тя умоляваше и молеше, докато телефонът ѝ беше взет. 

"Един заплашителен и вулгарен мъж пое разговора: "Слушай, държа дъщеря ти, ако кажеш на някого, или се обадиш на полицията, ще натъпча стомаха ѝ с толкова наркотици и ще я захвърля в Мексико и никога повече няма да я видиш!" 

"През цялото време Бриана отчаяно молеше на заден план: "Мамо, помогни ми!!!".

По време на обаждането ДеСтефано е била на репетиция на друга дъщеря и докато пускала звука на измамниците, крещяла за помощ, привличайки други майки, които започнали да звънят на 911 и да се опитват да се свържат със съпруга ѝ или с Бриана.  

Междувременно ДеСтефано направила всичко възможно, за да забави и да накара "похитителите" да говорят, докато пристигне полицията. 

"Похитителите" поискали откуп от 1 милион долара, но когато паникьосаната ДеСтефано им казала, че това е невъзможно, те бързо намалили искането си на 50 000 долара.

"Не вярвах, че това е измама. Не само гласът на Бри, но и нейните викове, нейните ридания бяха уникални за нея. Не беше възможно да се фалшифицира това", възразява майката. 

Стана ясно, че изкуственият интелект също може да възпроизведе инфлексия и емоции. Това дава малко надежда на притеснения родител, но все пак не е достатъчно.

Тя продължава: - Поисках инструкции за превод и номера на сметката за 50 000 долара, но ми беше отказано. "О, не - поиска мъжът, - това може да се проследи, така няма да стане". Ще дойдем да ви приберем!" 

"Какво?" Изкрещях: "Ще се съгласите да ви вземем с бял микробус, с чувал на главата, за да не знаете къде ви водим. По-добре да имате всичките 50 000 долара в брой, иначе и вие, и дъщеря ви сте мъртви! Ако не се съгласите на това, никога повече няма да видите дъщеря си!" - изкрещял той.

Въпреки ужаса си ДеСтефано запазила хладнокръвие и продължила да преговаря подробностите за собственото си отвличане, за да печели време.

В този момент към нея се приближила друга майка, която потвърдила, че след като се свързала с нея по телефона, дъщеря ѝ е в абсолютна безопасност и е с баща си на ски екскурзия. 

'Умът ми се завихри. Не си спомням колко пъти имах нужда от уверение, но когато най-накрая се хванах за това, че тя е в безопасност, бях бясна', свидетелства ДеСтефано.

Междувременно възмутената майка все още държала телефона и разговаряла с фалшивите похитители. 

"Нахвърлих се върху мъжете за този ужасен опит за измама и извличане на пари. Да се стигне дотам, че да се инсценира отвличането на дъщеря ми, беше отвъд най-бруталното ниво за изискване на пари.

"Те продължиха да заплашват, че ще убият Бри. Обещах им, че ще ги спра, че не само никога няма да наранят дъщеря ми, но и че няма да продължат да вредят на други хора със схемата си'. 

Вбесяващото е, че когато ДеСтефано се опитала да подаде сигнал в полицията, въпросът бил отхвърлен като "шегаджийско обаждане". 

Тя призовава Конгреса да предприеме действия, за да помогне за предотвратяването на престъпни злоупотреби с нововъзникващите технологии на изкуствения интелект. 

"Тъй като светът ни се движи със светкавични темпове, човешкият елемент на познание, който е в основата на социалната ни тъкан за това какво е "известно" и какво е "истина", се революционизира с помощта на изкуствения интелект. Някои за добро, а други за зло", каза тя.

"Ако бъде оставен без контрол, без охрана и без последствия, той ще пренапише нашето разбиране и възприятие за това какво е и какво не е истина. Той ще разруши чувството ни за "познато", тъй като ще подкопае увереността ни в това кое е реално и кое не.

 

Инструментите за клониране на глас с изкуствен интелект са широко достъпни онлайн, а опитът на ДеСтефано е част от тревожната вълна от подобни измами, които обхванаха цялата страна. 

"Клонирането на глас с изкуствен интелект, което вече е почти неразличимо от човешката реч, позволява на участници в заплахи като измамниците да извличат информация и средства от жертвите по-ефективно", заяви пред АФП Васим Халед, главен изпълнителен директор на Blackbird.AI.

Простото търсене в интернет дава възможност да се намери широк набор от приложения, много от които са достъпни безплатно, за създаване на гласове с изкуствен интелект с малка извадка - понякога само няколко секунди - от истинския глас на човек, който лесно може да бъде откраднат от съдържание, публикувано онлайн.

"С малка аудио извадка клонингът на глас с изкуствен интелект може да се използва за оставяне на гласови съобщения и гласови текстове. Той дори може да се използва като смяна на гласа в реално време при телефонни разговори", казва Халед.

"Измамниците могат да използват различни акценти, полове или дори да имитират речта на близките си. [Технологията] позволява създаването на убедителни дълбоки фалшификати".

В глобално проучване, проведено сред 7000 души от девет държави, включително САЩ, един от всеки четирима души заявява, че се е сблъсквал с измама, свързана с клониране на глас с изкуствен интелект, или познава някой, който се е сблъсквал с такава измама.

Седемдесет процента от анкетираните са заявили, че не са сигурни, че могат да "различат клониран глас от истински", се казва в проучването, публикувано миналия месец от базираната в САЩ McAfee Labs.

Американските власти предупредиха за ръст на така наречената "измама с баба и дядо", при която измамник се представя за внук, който спешно се нуждае от пари в бедствена ситуация.

"Обаждат ви се. На линията се чува паникьосан глас. Това е внукът ви. Казва, че е в голяма беда - разбил е колата и е попаднал в затвора. Но вие можете да му помогнете, като изпратите пари' - се казва в предупреждение на Федералната търговска комисия на САЩ от март.

"Звучи точно като него". Как може да е измама? Клониране на глас, ето как.

В коментарите под предупреждението на Федералната търговска комисия имаше множество свидетелства на възрастни хора, които са били измамени по този начин.