Мошенничество с deepfake: темная сторона искусственного интеллекта

RU-1000 Рейтинг
Мошенничество с deepfake: темная сторона искусственного интеллекта

Искусственный интеллект способен красть деньги, создавая дипфейки. Deepfakes - это подделки реальных видео и аудиозаписей людей посредством алгоритмов, которые анализируют тысячи записей голосов и изображений и на их основе создают новые файлы. Эксперты по кибербезопасности опасаются, что дипфейки станут колоссальной киберпреступной тенденцией использования ИИ.

По данным Threatpost, в августе этого года дипфейк использовал мошенник для того, чтобы обмануть компанию на сумму 220 тыс. евро. Злоумышленник еще в марте создал фальшивую подделку, имитирующую голос ее генерального директора. Гендиректору энергетической компании позвонил босс, и во время разговора попросил его "срочно перевести 200 тыс. фунтов стерлингов венгерскому провайдеру". Жертву обманули голосом с "легким немецким акцентом", который якобы принадлежал начальнику.

Этот инцидент является первым с использованием технологии deepfake, утверждают в Panda Security. По их данным, с 2013 по 2017 гг. количество случаев голосового фишинга выросло на 350%.

Пока в России не выявлено случаев мошенничества типа deepfake, но, скорее всего, отечественные злоумышленники возьмут на вооружение новый способ обмана, полагает руководитель отдела аналитики и спецпроектов ГК InfoWatch Андрей Арсентьев.

По его словам, deepfake будет опасен в двух направлениях. Во-первых, это фишинг. Посредством голосовых или видео-сообщений ИИ может помочь преступникам имитировать манеру речи или образ человека, от которого зависит принятие решения, и санкционировать денежные переводы. Во-вторых, это "черный пиар" и кампании по распространению фейковой информации. Освоив в полной мере технологию, злоумышленники могут создавать изображения, видео- и аудиофайлы от лица той или иной персоны с целью ее дискредитации.

Использование deepfake для банковского мошенничества пока маловероятно, уверен Андрей Арсентьев. Современные нейросети банков без труда распознают обман, если мошенники попытаются выдать себя за другого человека, синтезируя его голос. Система сопоставит этот голос с биометрическим слепком, хранящимся в базе. "Но на всякий случай я бы посоветовал людям внимательно подходить к сдаче биометрии. Она должна проходить строго в банках, имеющих на это право", - предостерегает Андрей Арсентьев.

Алгоритмы для обнаружения deepfake стоят за технологией создания этих же подделок, говорит ИТ-евангелист Avast Луис Корронс. "Deepfake будет большой проблемой, и легкое решение будет найдено нескоро", - предсказывает эксперт. Microsoft, Google и Facebook уже работают над этим.

Ближайшие годы могут стать эпохой сеттингов, и в этом плане резкий взрыв фейков, особенно в сфере гражданской журналистики, неизбежен. Бороться с этой напастью можно и нужно лишь инвестируя средства в создание каналов достоверной информации с хорошей репутацией.



Дата: 03.10.2019

Поделитесь страницей "Мошенничество с deepfake: темная сторона искусственного интеллекта" в Социальных сетях

Новые компании
Адрес
394026, г. Воронеж, пр-д Брянский, д. 9
Телефон
+7(800)770-09-47; +7(906) 588-88-90
Адрес
195030, г. Санкт-Петербург, ул. Электропультовцев, д.7, лит. А
Телефон
+7(812) 244-47-04, +7(812) 244-47-05
Адрес
129345, г. Москва, ул. Осташковская, д. 14
Телефон
8-800-505-05-42 +7(495) 787-26-63
Адрес
394000, г. Воронеж, ул. Карла Маркса, 68, оф. 616
Телефон
+7 (473) 255-68-79, 8(800) 222-52-15
Адрес
450080, г. Уфа, ул. Менделеева, д. 140/1
Телефон
+7 (937) 849-08-97
Все компании