Мошенники не стоят на месте и все чаще используют в своих схемах дипфейки. Успешность новых атак оценивают в 15–20%, но, как утверждают эксперты, это далеко не предел. Со временем дипфейки будут применять более активно, а благодаря повышению их качества вычислить обман станет еще сложнее. Подробнее — в материале ОТР.
В России выросло число атак мошенников с использованием дипфейков — технологии обработки контента, которая подменяет лицо и голос человека с помощью искусственного интеллекта, сообщили «Известия».
Злоумышленники создают реалистичное видеоизображение человека или голосовое сообщение и рассылают по контактам. Как правило, дипфейк «рассказывает» о своей болезни, увольнении или о том, что попал в ДТП, после чего просит перевести денег на счет.
«Расчет на то, что потенциальная жертва, услышав голос близкого человека и увидев его изображение, начнет паниковать, переживать и в состоянии шока выполнит просьбу», – пояснил начальник отдела информационной безопасности банка «Хлынов» Андрей Попов.
Всего есть два основных направления в атаках с дипфейками. Первое из них используется в корпоративной среде. Работает схема примерно так: в общий рабочий чат поступает сообщение от «шефа», а затем туда же отправляются реквизиты счета, куда надо отправить деньги. По словам управляющего RTM Group, эксперта в области кибербезопасности и права Евгения Царева, такая уловка рассчитана на представителей финансового сектора, ассистентов руководителя, менеджеров по работе с клиентами.
Второе направление — видеодипфейк со скандальными высказываниями или недопустимым поведением. Его отправляют потенциальной жертве и требуют выкуп. Эта уловка отлично работает после корпоративов или масштабных праздников, после которых работники компаний не всегда помнят, что они делали, добавил Царев.
Пока киберпреступники только изучают эту технологию, но со временем объемы мошенничества с использованием дипфейков, прогнозируют эксперты, увеличатся. Бум таких сценариев ожидают уже в следующем году. Будут массово использоваться не только опробованные схемы, но и новые, пока широко неизвестные людям.
Директор центра противодействия мошенничеству компании «Информзащита» Павел Коваленко рассказал, что мошенники уже активно «пополняют базу». В частности, они стали чаще покупать записи голосов и готовы платить за них от 300 рублей до пяти тысяч.
Это говорит о том, что в будущем россиян ждут звонки от «знакомых» и «родственников», которые попали в беду. А идеальная схожесть ИИ с голосом контакта даже не вызовет подозрений, отмечают специалисты.
«Адресно применять генеративные модели ИИ злоумышленники будут продолжать все активнее. Поэтому не стоит вести с ними диалога даже в шутку — известны случаи, когда полученные таким образом образцы голоса использовались в подделках для атак на знакомых первой жертвы», – сказал директор по стратегическим альянсам и взаимодействию с органами государственной власти группы компаний «Гарда» Павел Кузнецов.
Эксперты предупреждают: определить фейковость ролика, изображения или голосового сообщения можно только путем тщательного анализа материала. Так, пользователя должны насторожить неестественное движение губ, отсутствие мимики, дефекты в изображении, помехи в голосе и очень стройная речь.
Чтобы убедиться, что перед вами реальный человек, а не дипфейк, надо попросить собеседника на камеру покрутить головой из стороны в сторону, поднести руки к лицу. Нелишним будет и внезапный вопрос, ответ на который будет не самым очевидным.
«Злоумышленники могут использовать элементы неожиданности, когда в состоянии стресса нет времени и возможности изучать неточности и шероховатости на видео. Поэтому в таких ситуациях стоит взять паузу и прервать разговор, – посоветовал руководитель проектов Центра цифровых технологий управления Института информационных систем ГУУ Андрей Стариковский.
Лучше не доверять внезапным звонкам, особенно если на той стороне провода просят перевести деньги. Рекомендуется подтвердить информацию у источника: позвонить или написать ему лично.
ОТР - Общественное Телевидение России
marketing@ptvr.ru
+7 499 755 30 50 доб. 3165
АНО «ОТВР»
1920
1080
«Известия»: мошенники стали чаще обманывать людей с помощью дипфейков
Мошенники не стоят на месте и все чаще используют в своих схемах дипфейки. Успешность новых атак оценивают в 15–20%, но, как утверждают эксперты, это далеко не предел. Со временем дипфейки будут применять более активно, а благодаря повышению их качества вычислить обман станет еще сложнее. Подробнее — в материале ОТР.
В России выросло число атак мошенников с использованием дипфейков — технологии обработки контента, которая подменяет лицо и голос человека с помощью искусственного интеллекта, сообщили «Известия».
Злоумышленники создают реалистичное видеоизображение человека или голосовое сообщение и рассылают по контактам. Как правило, дипфейк «рассказывает» о своей болезни, увольнении или о том, что попал в ДТП, после чего просит перевести денег на счет.
«Расчет на то, что потенциальная жертва, услышав голос близкого человека и увидев его изображение, начнет паниковать, переживать и в состоянии шока выполнит просьбу», – пояснил начальник отдела информационной безопасности банка «Хлынов» Андрей Попов.
Всего есть два основных направления в атаках с дипфейками. Первое из них используется в корпоративной среде. Работает схема примерно так: в общий рабочий чат поступает сообщение от «шефа», а затем туда же отправляются реквизиты счета, куда надо отправить деньги. По словам управляющего RTM Group, эксперта в области кибербезопасности и права Евгения Царева, такая уловка рассчитана на представителей финансового сектора, ассистентов руководителя, менеджеров по работе с клиентами.
Второе направление — видеодипфейк со скандальными высказываниями или недопустимым поведением. Его отправляют потенциальной жертве и требуют выкуп. Эта уловка отлично работает после корпоративов или масштабных праздников, после которых работники компаний не всегда помнят, что они делали, добавил Царев.
Пока киберпреступники только изучают эту технологию, но со временем объемы мошенничества с использованием дипфейков, прогнозируют эксперты, увеличатся. Бум таких сценариев ожидают уже в следующем году. Будут массово использоваться не только опробованные схемы, но и новые, пока широко неизвестные людям.
Директор центра противодействия мошенничеству компании «Информзащита» Павел Коваленко рассказал, что мошенники уже активно «пополняют базу». В частности, они стали чаще покупать записи голосов и готовы платить за них от 300 рублей до пяти тысяч.
Это говорит о том, что в будущем россиян ждут звонки от «знакомых» и «родственников», которые попали в беду. А идеальная схожесть ИИ с голосом контакта даже не вызовет подозрений, отмечают специалисты.
«Адресно применять генеративные модели ИИ злоумышленники будут продолжать все активнее. Поэтому не стоит вести с ними диалога даже в шутку — известны случаи, когда полученные таким образом образцы голоса использовались в подделках для атак на знакомых первой жертвы», – сказал директор по стратегическим альянсам и взаимодействию с органами государственной власти группы компаний «Гарда» Павел Кузнецов.
Эксперты предупреждают: определить фейковость ролика, изображения или голосового сообщения можно только путем тщательного анализа материала. Так, пользователя должны насторожить неестественное движение губ, отсутствие мимики, дефекты в изображении, помехи в голосе и очень стройная речь.
Чтобы убедиться, что перед вами реальный человек, а не дипфейк, надо попросить собеседника на камеру покрутить головой из стороны в сторону, поднести руки к лицу. Нелишним будет и внезапный вопрос, ответ на который будет не самым очевидным.
«Злоумышленники могут использовать элементы неожиданности, когда в состоянии стресса нет времени и возможности изучать неточности и шероховатости на видео. Поэтому в таких ситуациях стоит взять паузу и прервать разговор, – посоветовал руководитель проектов Центра цифровых технологий управления Института информационных систем ГУУ Андрей Стариковский.
Лучше не доверять внезапным звонкам, особенно если на той стороне провода просят перевести деньги. Рекомендуется подтвердить информацию у источника: позвонить или написать ему лично.
Мошенники не стоят на месте и все чаще используют в своих схемах дипфейки. Успешность новых атак оценивают в 15–20%, но, как утверждают эксперты, это далеко не предел. Со временем дипфейки будут применять более активно, а благодаря повышению их качества вычислить обман станет еще сложнее. Подробнее — в материале ОТР.
В России выросло число атак мошенников с использованием дипфейков — технологии обработки контента, которая подменяет лицо и голос человека с помощью искусственного интеллекта, сообщили «Известия».
Злоумышленники создают реалистичное видеоизображение человека или голосовое сообщение и рассылают по контактам. Как правило, дипфейк «рассказывает» о своей болезни, увольнении или о том, что попал в ДТП, после чего просит перевести денег на счет.
«Расчет на то, что потенциальная жертва, услышав голос близкого человека и увидев его изображение, начнет паниковать, переживать и в состоянии шока выполнит просьбу», – пояснил начальник отдела информационной безопасности банка «Хлынов» Андрей Попов.
Всего есть два основных направления в атаках с дипфейками. Первое из них используется в корпоративной среде. Работает схема примерно так: в общий рабочий чат поступает сообщение от «шефа», а затем туда же отправляются реквизиты счета, куда надо отправить деньги. По словам управляющего RTM Group, эксперта в области кибербезопасности и права Евгения Царева, такая уловка рассчитана на представителей финансового сектора, ассистентов руководителя, менеджеров по работе с клиентами.
Второе направление — видеодипфейк со скандальными высказываниями или недопустимым поведением. Его отправляют потенциальной жертве и требуют выкуп. Эта уловка отлично работает после корпоративов или масштабных праздников, после которых работники компаний не всегда помнят, что они делали, добавил Царев.
Пока киберпреступники только изучают эту технологию, но со временем объемы мошенничества с использованием дипфейков, прогнозируют эксперты, увеличатся. Бум таких сценариев ожидают уже в следующем году. Будут массово использоваться не только опробованные схемы, но и новые, пока широко неизвестные людям.
Директор центра противодействия мошенничеству компании «Информзащита» Павел Коваленко рассказал, что мошенники уже активно «пополняют базу». В частности, они стали чаще покупать записи голосов и готовы платить за них от 300 рублей до пяти тысяч.
Это говорит о том, что в будущем россиян ждут звонки от «знакомых» и «родственников», которые попали в беду. А идеальная схожесть ИИ с голосом контакта даже не вызовет подозрений, отмечают специалисты.
«Адресно применять генеративные модели ИИ злоумышленники будут продолжать все активнее. Поэтому не стоит вести с ними диалога даже в шутку — известны случаи, когда полученные таким образом образцы голоса использовались в подделках для атак на знакомых первой жертвы», – сказал директор по стратегическим альянсам и взаимодействию с органами государственной власти группы компаний «Гарда» Павел Кузнецов.
Эксперты предупреждают: определить фейковость ролика, изображения или голосового сообщения можно только путем тщательного анализа материала. Так, пользователя должны насторожить неестественное движение губ, отсутствие мимики, дефекты в изображении, помехи в голосе и очень стройная речь.
Чтобы убедиться, что перед вами реальный человек, а не дипфейк, надо попросить собеседника на камеру покрутить головой из стороны в сторону, поднести руки к лицу. Нелишним будет и внезапный вопрос, ответ на который будет не самым очевидным.
«Злоумышленники могут использовать элементы неожиданности, когда в состоянии стресса нет времени и возможности изучать неточности и шероховатости на видео. Поэтому в таких ситуациях стоит взять паузу и прервать разговор, – посоветовал руководитель проектов Центра цифровых технологий управления Института информационных систем ГУУ Андрей Стариковский.
Лучше не доверять внезапным звонкам, особенно если на той стороне провода просят перевести деньги. Рекомендуется подтвердить информацию у источника: позвонить или написать ему лично.