Злоумышленники всё чаще применяют нейросети на основе искусственного интеллекта для создания реалистичных голосовых подделок, имитирующих голоса близких людей, сообщили в Центре цифровой экспертизы Роскачества. Для этого достаточно небольшого фрагмента аудио, который можно легко извлечь из голосовых сообщений в мессенджерах или видеозаписей в соцсетях.
«Современные технологии достигли такого уровня, что отличить подделку от настоящего голоса или видео в реальном времени становится всё сложнее. Особенно уязвимы в этой ситуации пожилые люди и подростки. Мы рекомендуем вести беседы с близкими и установить кодовое слово, чтобы быстро определить, действительно ли это ваш собеседник», — заявил руководитель Центра Сергей Кузьменко.
Он также подчеркнул, что поддельный голос можно распознать даже при звонке с корректного номера.
Это можно сделать по неестественным звукам на фоне, таким как монотонный шум ветра, сигналы автомобилей или резкие звуки. Злоумышленники намеренно используют такие помехи, чтобы замаскировать механическое звучание голоса без эмоциональных оттенков и пауз. По данным организации, изображения, созданные с помощью нейросетей, стали настолько реалистичными, что большинство граждан России (от 62 до 80%) не в состоянии отличить их от оригинальных.