«Лаборатория Касперского» предупредила об атаках мошенников через видеозвонки
Технология дипфейков позволит мошенникам использовать для своих схем видеозвонки. Об этом заявил РИА "Новости" главный эксперт "Лаборатории Касперского" Сергей Голованов. Голованов отметил, что в будущем аферисты смогут в реальном времени генерировать изображение другого человека, выдавая себя за него. Он подчеркнул, что распознать подобный обман будет очень сложно, так как формат видеозвонка способен снизить бдительность. "Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет", — объяснил технологию эксперт. По словам Голованова, сейчас мошенники пользуются нейросетями, чтобы подделывать голосовые сообщения. Однако пока их возможности ограничены: симуляцию можно вычислить по отсутствию шума и слишком гладкой речи без перепадов. Ранее россиян предупредили об опасности голосового фишинга.
ОТР - Общественное Телевидение России
marketing@ptvr.ru
+7 499 755 30 50 доб. 3165
АНО «ОТВР»
1920
1080
«Лаборатория Касперского» предупредила об атаках мошенников через видеозвонки
Технология дипфейков позволит мошенникам использовать для своих схем видеозвонки. Об этом заявил РИА "Новости" главный эксперт "Лаборатории Касперского" Сергей Голованов. Голованов отметил, что в будущем аферисты смогут в реальном времени генерировать изображение другого человека, выдавая себя за него. Он подчеркнул, что распознать подобный обман будет очень сложно, так как формат видеозвонка способен снизить бдительность. "Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет", — объяснил технологию эксперт. По словам Голованова, сейчас мошенники пользуются нейросетями, чтобы подделывать голосовые сообщения. Однако пока их возможности ограничены: симуляцию можно вычислить по отсутствию шума и слишком гладкой речи без перепадов. Ранее россиян предупредили об опасности голосового фишинга.
Технология дипфейков позволит мошенникам использовать для своих схем видеозвонки. Об этом заявил РИА "Новости" главный эксперт "Лаборатории Касперского" Сергей Голованов. Голованов отметил, что в будущем аферисты смогут в реальном времени генерировать изображение другого человека, выдавая себя за него. Он подчеркнул, что распознать подобный обман будет очень сложно, так как формат видеозвонка способен снизить бдительность. "Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет", — объяснил технологию эксперт. По словам Голованова, сейчас мошенники пользуются нейросетями, чтобы подделывать голосовые сообщения. Однако пока их возможности ограничены: симуляцию можно вычислить по отсутствию шума и слишком гладкой речи без перепадов. Ранее россиян предупредили об опасности голосового фишинга.