Изкуствен интелект рекламира схема за бързо забогатяване
Фалшив видеоклип рекламира схеми за бързо забогатяване с водещата на „Събуди се“ Марина Цекова, информира Нова тв. Хакери премодулирали гласа ѝ, а веднага след нея в лъжливата реклама е замесен и президентът Румен Радев. Оказва се, че има хора, които са се поддали на измамата и са загубили десетки хиляди левове.
„Нова платформа ще ви позволи да печелите стабилно и без риск. Това вече е тествано от обикновени хора, които за първия месец успяха да изкарат годишните си заплати, а някои дори и повече“. Това са думи, изречени от генерирания от изкуствен интелект глас на Марина Цекова – уважаван публицист и водеща на „Събуди се“, и целят да ви въвлекат в измама.
Във фейк видеото е и лицето на президента на България Румен Радев. Но и думите на държавния глава в клипа са генерирани от измамници.
„Дирекция „Киберпрестъпност“ в ГДБОП ежедневно премахва подобни видеа. Или жертви на инвестиционни измами ни сигнализират, или хора, които са ги видели случайно. Това конкретно видео го докладвахме и се надяваме в близките час-два да изчезне“, заяви главен комисар Владимир Димитров, „Киберсигурност“ в ГДБОП.
Изминаха 8 часа, след като ГДБОП докладва фалшивото видео на Facebook, но то все още е публично в социалната мрежа. Профилът на жертвите на измамите показва, че 90% от тях са мъже. Те са над 30-годишна възраст с добре платена професия и повече свободно време. Но измамниците зад клавиатурата не подбират.
„Само днес имаме две жалби от дами, които са загубили пари – едната 30 000 лева, другата над 80 000 лева в подобни инвестиционни измами. Тези измами продължават няколко месеца“, посочва главен комисар Димитров.
Проверка на NOVA показва, че това е единственото видео във въпросната Facebook страница, която е създадена на 7 февруари. Има само 29 последователи, но фалшивата реклама е видяна от хиляди потребители. Описанието на видеото е на руски и гласи: „Уникални новини за гражданите“.
„Тези видеа се изготвят от организирани престъпни групи, които се занимават с инвестиционни измами. Ситуират своите кол центрове в държави като България, Молдова, Украйна, Беларус, Казахстан. От тези колцентрове се таргетират граждани на практика на територията на цял свят. Това не е само проблем за България“, категоричен е главен комисар Димитров.
В края на всяко дийпфейк видео има призив жертвите да кликнат на линк, който ги отвежда към сайт, където им искат лични данни. „Име, фамилия и телефон. В последствие с нея се свързват от този кол център да бъде назначен на жертвата персонален съветник, който да комиуникира с нея и да я подканва да вкарва пари в тази платформа. Някои от жертвите се приканват да вземат заем от техни приятели или бързи кредити, за да инвестират в така наречената инвестиционна платформа. Целта е да се въведе в заблуждение бъдещата жертва. Когато нещо се каже от обществена фигура – всички се надяват това да е истина. Ествествено това е дийпфейк видео, което е имамно. Това е идеята на престъпниците – лице, което е познато от телевизорите, да каже нещо подвеждащо“, твърди експертът от ГДБОП.
Но дали подвеждащият изкуствен интелект, използван от престъпници, може да се впрегне и от разследващите в тяхна помощ. „Има широко приложение, но човешкият мозък е незаменим. Каквото направи AI – ще трябва да има контрол от страна на човека. Използвали сме го за някои неща, но не се справи добре и в крайна сметка ние трябваше да си свършим работата“, подчертава главен инспектор Димитров.
Тази игра на „дълбоката лъжа“ все още няма правила. Докато законодателните органи измислят такива – съветът на експертите е, ако нещо звучи прекалено хубаво, за да е истина, то най-вероятно е измама.