Эксперты в области искусственного интеллекта предупредили, что к концу 2025 года каждый второй житель России может столкнуться с дипфейк-атаками. Основные угрозы на данный момент исходят от поддельных голосовых сообщений и видеокружков, но к 2026 году мошенники начнут применять более сложные методы, включая имитацию голосов знакомых жертв в реальном времени.
Согласно данным MTS AI, если несколько лет назад с феноменом дипфейков сталкивались лишь 10% пользователей, то к концу этого года их доля может вырасти до 50%. В течение 2024–2025 годов основными инструментами мошенников все еще останутся фальшивые видеокружки и голосовые записи, но развитие технологий сделает сценарии мошенничества еще более реалистичными. Современные дипфейки обладают высокой степенью правдоподобия, и даже опытные пользователи могут не отличить их от реальных материалов.
Как пояснили в MTS AI, видеокружки и голосовые сообщения представляют особую опасность, так как не предоставляют возможностей для надежной проверки источника. Мошенники используют подделки, создавая ситуации, где жертва получает просьбы о помощи от лиц, похожих на близких или знакомых.
Примеры успешных мошеннических схем уже зафиксированы: пенсионер из Москвы перевел 1,5 млн рублей, полагая, что общается с «секретарем мэра». Также распространена практика знакомства в приложениях и перехода в мессенджеры, где мошенники манипулируют жертвами с помощью дипфейков. Эксперты подчеркнули, что использование технологий дипфейков мошенниками становится все проще, что требует от пользователей повышенной бдительности.
На фоне резко растущего числа атак важно критически относиться к запросам о переводах денег, даже если они исходят от знакомых. К 2026 году ожидается резкий рост случаев злоупотребления дипфейками, что делает их основным инструментом мошенников в будущем.