IT-эксперт Масалович перечислил способы защиты от дипфейков мошенников
Мошенники регулярно совершенствуют собственные схемы, внедряя в них современные технологии. Среди них — дипфейки. Но если сейчас злоумышленники обманывают жертв с помощью поддельных голосовых сообщений и видеокружков, то уже в следующем году они смогут массово применять дипфейк-звонки, имитируя в реальном времени голоса знакомых или родственников жертвы. О том, как не попасться на удочку мошенников, расскажет ОТР. Дипфейки — фотографии или видеозаписи, на которых голос или внешность человека подделаны с помощью нейросети. Эта технология позволяет аферистам в режиме реального времени имитировать разговор с «другом, просящим деньги» или же «коллегой, срочно требующим перевести средства». Несколько лет назад с подобными атаками сталкивались около 10% пользователей, но к концу 2025 года их жертвой может стать уже каждый второй, выяснили «Известия». Сейчас мошенники используют поддельные голосовые сообщения и видеокружки в соцсетях, а в следующем году, уверены эксперты, они станут терроризировать жертв с помощью дипфейк-звонков, когда злоумышленник будет разговаривать с человеком голосом его знакомого. «Видеокружки и голосовые сообщения в мессенджерах — один из самых популярных способов коммуникации, поэтому они представляют собой потенциально наибольшую угрозу для использования мошенниками после звонков. При этом в отличие от звонков, у которых есть определители номера и другие способы защиты, у голосовых сообщений и кружков нет возможности проверить их источник», – рассказали в пресс-службе MTS AI. Мошенники активно подделывали голосовые сообщения и видеокружки еще в прошлом году, однако сейчас технология не только стала доступнее, но и убедительнее. И если сейчас отличить фейк от настоящих фото, видео или голоса довольно сложно, то в будущем это станет практически невозможно, уверяют специалисты. Чтобы создать убедительный видеодипфейк, мошенникам нужно собрать разные изображения потенциальной жертвы. Чем больше их будет, тем качественнее выйдет подделка, так как ИИ сможет «увидеть» лицо человека под разными углами и при разном освещении. Для голосовых сообщений и звонков требуется меньше данных, но результат может быть неидеальным, из-за чего злоумышленнику придется делать больше попыток генерации. В прошлом году пожилой москвич перевел полтора миллиона рублей «секретарю мэра Москвы», который позвонил ему по видеосвязи. Мошенник убедил мужчину, что через его счета были похищены государственные средства и для решения этой проблемы необходимо сотрудничество с ФСБ. Помимо этой уловки злоумышленники часто знакомятся и с девушками в приложениях. Так, одна из пользовательниц познакомилась с привлекательным парнем, а со временем их общение перетекло в Telegram, где мужчина отправлял ей голосовые сообщения и звонил по видео, созданные с помощью ИИ. «Девушка, по причинам, которые мы не будем называть из этических соображений, перевела ему несколько миллионов рублей. После этого мужчина исчез. Он был родом из одной из африканских стран, но представлялся белым американцем», – рассказали в MTS AI, отметив, что таких историй им известно как минимум пять. Дипфейки в основном сейчас используются для целевых атак, где можно сразу раскрутить жертву на сотни тысяч рублей, рассказал ОТР подполковник спецслужб в отставке, IT-специалист по информационной безопасности, OSINT и конкурентной разведке Андрей Масалович. По его словам, чтобы создать качественную восьмисекундную видеоподделку, злоумышленникам нужно несколько часов. Поэтому они чаще всего используют короткие звонки и ролики, а затем просто просят жертву писать сообщения. Это работает, указал эксперт, так как человек за несколько секунд успел убедиться, что перед ним родственник или коллега. «Мошенники нападают только на незащищенную часть населения, которая не договорилась с начальством или с родными о кодовой фразе. Если вам звонят, а вы сразу отвечаете, это как вход без пароля, то есть ваш собеседник не подтвердил, кто он. Поэтому, вопреки распространенному заблуждению, основные пострадавшие — не пенсионеры и подростки, а средний класс, в том числе военнослужащие, работники госструктур, потому что они доверяют начальству, потому что их начальство почему-то не договорилось с ними о кодовой фразе», – отметил Масалович. Собеседник ОТР порекомендовал сбрасывать звонки с незнакомых номеров, в ответ можно послать сообщение с просьбой написать, кто звонит и по какому вопросу. Если поднять трубку, вероятность быть обманутым возрастает в разы, уверен Масалович. «У мошенников очень много денег, они могут нанимать лучших психологов, они тысячами и даже миллионами проверяют разные схемы и видят, какие работают, какие не работают», – добавил он. Распознать, что перед тобой дипфейк, подчеркнул эксперт, практически невозможно. Однако есть некоторые фишки, которые помогут не купиться на обман. К примеру, на поддельной видеозаписи можно заметить странные подергивания, замыливание фона и ненатурные движения собеседника, части лица которого могут казаться неестественными. С аудиозаписями дело обстоит сложнее. Но и здесь есть зацепки, обличающие злоумышленников. В частности, у подделки, как правило, отсутствуют паузы и фоновый шум. Также должны насторожить необычные речевые обороты, интонации или незнакомый акцент. «Генерация голоса также будет развиваться, и если сейчас сгенерированный голос можно отличить по неуместной интонации, металлическому звучанию и пропущенным шипящим звукам, то со временем станет неотличима от реальности. Поэтому мои рекомендации — это не забывать, что мы уже живем в эпоху следующей технической революции, не забывать о существовании подобных технологий и доверять своей интуиции. Лучше перепроверить, задать собеседнику вопрос, который знаете только вы вдвоем или положить трубку и перезвонить самому. Также время от времени образовываться и следить за новостями науки и техники», – порекомендовал в разговоре с ОТР IТ-эксперт Максим Гутин.
ОТР - Общественное Телевидение России
marketing@ptvr.ru
+7 499 755 30 50 доб. 3165
АНО «ОТВР»
1920
1080
IT-эксперт Масалович перечислил способы защиты от дипфейков мошенников
Мошенники регулярно совершенствуют собственные схемы, внедряя в них современные технологии. Среди них — дипфейки. Но если сейчас злоумышленники обманывают жертв с помощью поддельных голосовых сообщений и видеокружков, то уже в следующем году они смогут массово применять дипфейк-звонки, имитируя в реальном времени голоса знакомых или родственников жертвы. О том, как не попасться на удочку мошенников, расскажет ОТР. Дипфейки — фотографии или видеозаписи, на которых голос или внешность человека подделаны с помощью нейросети. Эта технология позволяет аферистам в режиме реального времени имитировать разговор с «другом, просящим деньги» или же «коллегой, срочно требующим перевести средства». Несколько лет назад с подобными атаками сталкивались около 10% пользователей, но к концу 2025 года их жертвой может стать уже каждый второй, выяснили «Известия». Сейчас мошенники используют поддельные голосовые сообщения и видеокружки в соцсетях, а в следующем году, уверены эксперты, они станут терроризировать жертв с помощью дипфейк-звонков, когда злоумышленник будет разговаривать с человеком голосом его знакомого. «Видеокружки и голосовые сообщения в мессенджерах — один из самых популярных способов коммуникации, поэтому они представляют собой потенциально наибольшую угрозу для использования мошенниками после звонков. При этом в отличие от звонков, у которых есть определители номера и другие способы защиты, у голосовых сообщений и кружков нет возможности проверить их источник», – рассказали в пресс-службе MTS AI. Мошенники активно подделывали голосовые сообщения и видеокружки еще в прошлом году, однако сейчас технология не только стала доступнее, но и убедительнее. И если сейчас отличить фейк от настоящих фото, видео или голоса довольно сложно, то в будущем это станет практически невозможно, уверяют специалисты. Чтобы создать убедительный видеодипфейк, мошенникам нужно собрать разные изображения потенциальной жертвы. Чем больше их будет, тем качественнее выйдет подделка, так как ИИ сможет «увидеть» лицо человека под разными углами и при разном освещении. Для голосовых сообщений и звонков требуется меньше данных, но результат может быть неидеальным, из-за чего злоумышленнику придется делать больше попыток генерации. В прошлом году пожилой москвич перевел полтора миллиона рублей «секретарю мэра Москвы», который позвонил ему по видеосвязи. Мошенник убедил мужчину, что через его счета были похищены государственные средства и для решения этой проблемы необходимо сотрудничество с ФСБ. Помимо этой уловки злоумышленники часто знакомятся и с девушками в приложениях. Так, одна из пользовательниц познакомилась с привлекательным парнем, а со временем их общение перетекло в Telegram, где мужчина отправлял ей голосовые сообщения и звонил по видео, созданные с помощью ИИ. «Девушка, по причинам, которые мы не будем называть из этических соображений, перевела ему несколько миллионов рублей. После этого мужчина исчез. Он был родом из одной из африканских стран, но представлялся белым американцем», – рассказали в MTS AI, отметив, что таких историй им известно как минимум пять. Дипфейки в основном сейчас используются для целевых атак, где можно сразу раскрутить жертву на сотни тысяч рублей, рассказал ОТР подполковник спецслужб в отставке, IT-специалист по информационной безопасности, OSINT и конкурентной разведке Андрей Масалович. По его словам, чтобы создать качественную восьмисекундную видеоподделку, злоумышленникам нужно несколько часов. Поэтому они чаще всего используют короткие звонки и ролики, а затем просто просят жертву писать сообщения. Это работает, указал эксперт, так как человек за несколько секунд успел убедиться, что перед ним родственник или коллега. «Мошенники нападают только на незащищенную часть населения, которая не договорилась с начальством или с родными о кодовой фразе. Если вам звонят, а вы сразу отвечаете, это как вход без пароля, то есть ваш собеседник не подтвердил, кто он. Поэтому, вопреки распространенному заблуждению, основные пострадавшие — не пенсионеры и подростки, а средний класс, в том числе военнослужащие, работники госструктур, потому что они доверяют начальству, потому что их начальство почему-то не договорилось с ними о кодовой фразе», – отметил Масалович. Собеседник ОТР порекомендовал сбрасывать звонки с незнакомых номеров, в ответ можно послать сообщение с просьбой написать, кто звонит и по какому вопросу. Если поднять трубку, вероятность быть обманутым возрастает в разы, уверен Масалович. «У мошенников очень много денег, они могут нанимать лучших психологов, они тысячами и даже миллионами проверяют разные схемы и видят, какие работают, какие не работают», – добавил он. Распознать, что перед тобой дипфейк, подчеркнул эксперт, практически невозможно. Однако есть некоторые фишки, которые помогут не купиться на обман. К примеру, на поддельной видеозаписи можно заметить странные подергивания, замыливание фона и ненатурные движения собеседника, части лица которого могут казаться неестественными. С аудиозаписями дело обстоит сложнее. Но и здесь есть зацепки, обличающие злоумышленников. В частности, у подделки, как правило, отсутствуют паузы и фоновый шум. Также должны насторожить необычные речевые обороты, интонации или незнакомый акцент. «Генерация голоса также будет развиваться, и если сейчас сгенерированный голос можно отличить по неуместной интонации, металлическому звучанию и пропущенным шипящим звукам, то со временем станет неотличима от реальности. Поэтому мои рекомендации — это не забывать, что мы уже живем в эпоху следующей технической революции, не забывать о существовании подобных технологий и доверять своей интуиции. Лучше перепроверить, задать собеседнику вопрос, который знаете только вы вдвоем или положить трубку и перезвонить самому. Также время от времени образовываться и следить за новостями науки и техники», – порекомендовал в разговоре с ОТР IТ-эксперт Максим Гутин.
Мошенники регулярно совершенствуют собственные схемы, внедряя в них современные технологии. Среди них — дипфейки. Но если сейчас злоумышленники обманывают жертв с помощью поддельных голосовых сообщений и видеокружков, то уже в следующем году они смогут массово применять дипфейк-звонки, имитируя в реальном времени голоса знакомых или родственников жертвы. О том, как не попасться на удочку мошенников, расскажет ОТР. Дипфейки — фотографии или видеозаписи, на которых голос или внешность человека подделаны с помощью нейросети. Эта технология позволяет аферистам в режиме реального времени имитировать разговор с «другом, просящим деньги» или же «коллегой, срочно требующим перевести средства». Несколько лет назад с подобными атаками сталкивались около 10% пользователей, но к концу 2025 года их жертвой может стать уже каждый второй, выяснили «Известия». Сейчас мошенники используют поддельные голосовые сообщения и видеокружки в соцсетях, а в следующем году, уверены эксперты, они станут терроризировать жертв с помощью дипфейк-звонков, когда злоумышленник будет разговаривать с человеком голосом его знакомого. «Видеокружки и голосовые сообщения в мессенджерах — один из самых популярных способов коммуникации, поэтому они представляют собой потенциально наибольшую угрозу для использования мошенниками после звонков. При этом в отличие от звонков, у которых есть определители номера и другие способы защиты, у голосовых сообщений и кружков нет возможности проверить их источник», – рассказали в пресс-службе MTS AI. Мошенники активно подделывали голосовые сообщения и видеокружки еще в прошлом году, однако сейчас технология не только стала доступнее, но и убедительнее. И если сейчас отличить фейк от настоящих фото, видео или голоса довольно сложно, то в будущем это станет практически невозможно, уверяют специалисты. Чтобы создать убедительный видеодипфейк, мошенникам нужно собрать разные изображения потенциальной жертвы. Чем больше их будет, тем качественнее выйдет подделка, так как ИИ сможет «увидеть» лицо человека под разными углами и при разном освещении. Для голосовых сообщений и звонков требуется меньше данных, но результат может быть неидеальным, из-за чего злоумышленнику придется делать больше попыток генерации. В прошлом году пожилой москвич перевел полтора миллиона рублей «секретарю мэра Москвы», который позвонил ему по видеосвязи. Мошенник убедил мужчину, что через его счета были похищены государственные средства и для решения этой проблемы необходимо сотрудничество с ФСБ. Помимо этой уловки злоумышленники часто знакомятся и с девушками в приложениях. Так, одна из пользовательниц познакомилась с привлекательным парнем, а со временем их общение перетекло в Telegram, где мужчина отправлял ей голосовые сообщения и звонил по видео, созданные с помощью ИИ. «Девушка, по причинам, которые мы не будем называть из этических соображений, перевела ему несколько миллионов рублей. После этого мужчина исчез. Он был родом из одной из африканских стран, но представлялся белым американцем», – рассказали в MTS AI, отметив, что таких историй им известно как минимум пять. Дипфейки в основном сейчас используются для целевых атак, где можно сразу раскрутить жертву на сотни тысяч рублей, рассказал ОТР подполковник спецслужб в отставке, IT-специалист по информационной безопасности, OSINT и конкурентной разведке Андрей Масалович. По его словам, чтобы создать качественную восьмисекундную видеоподделку, злоумышленникам нужно несколько часов. Поэтому они чаще всего используют короткие звонки и ролики, а затем просто просят жертву писать сообщения. Это работает, указал эксперт, так как человек за несколько секунд успел убедиться, что перед ним родственник или коллега. «Мошенники нападают только на незащищенную часть населения, которая не договорилась с начальством или с родными о кодовой фразе. Если вам звонят, а вы сразу отвечаете, это как вход без пароля, то есть ваш собеседник не подтвердил, кто он. Поэтому, вопреки распространенному заблуждению, основные пострадавшие — не пенсионеры и подростки, а средний класс, в том числе военнослужащие, работники госструктур, потому что они доверяют начальству, потому что их начальство почему-то не договорилось с ними о кодовой фразе», – отметил Масалович. Собеседник ОТР порекомендовал сбрасывать звонки с незнакомых номеров, в ответ можно послать сообщение с просьбой написать, кто звонит и по какому вопросу. Если поднять трубку, вероятность быть обманутым возрастает в разы, уверен Масалович. «У мошенников очень много денег, они могут нанимать лучших психологов, они тысячами и даже миллионами проверяют разные схемы и видят, какие работают, какие не работают», – добавил он. Распознать, что перед тобой дипфейк, подчеркнул эксперт, практически невозможно. Однако есть некоторые фишки, которые помогут не купиться на обман. К примеру, на поддельной видеозаписи можно заметить странные подергивания, замыливание фона и ненатурные движения собеседника, части лица которого могут казаться неестественными. С аудиозаписями дело обстоит сложнее. Но и здесь есть зацепки, обличающие злоумышленников. В частности, у подделки, как правило, отсутствуют паузы и фоновый шум. Также должны насторожить необычные речевые обороты, интонации или незнакомый акцент. «Генерация голоса также будет развиваться, и если сейчас сгенерированный голос можно отличить по неуместной интонации, металлическому звучанию и пропущенным шипящим звукам, то со временем станет неотличима от реальности. Поэтому мои рекомендации — это не забывать, что мы уже живем в эпоху следующей технической революции, не забывать о существовании подобных технологий и доверять своей интуиции. Лучше перепроверить, задать собеседнику вопрос, который знаете только вы вдвоем или положить трубку и перезвонить самому. Также время от времени образовываться и следить за новостями науки и техники», – порекомендовал в разговоре с ОТР IТ-эксперт Максим Гутин.