Мошенничество с использование искусственного интеллекта
Обращаем ваше внимание на участившиеся случаи мошенничества с использованием технологии «Дипфейк» (англ. deepfake). Данная технология представляет собой созданное искусственным интеллектом видео или аудиосообщение, имитирующее внешность и голос реального человека.
Злоумышленники используют данную технологию для рассылки обращений от имени близких, коллег, руководителей, представителей государственных органов или известных лиц с просьбами о срочном переводе денег, участии в сомнительных инвестиционных проектах либо передаче конфиденциальных данных.
Для создания цифровых копий мошенникам достаточно получить доступ к фотографиям, видеозаписям или образцам голоса, что часто происходит через взлом аккаунтов в социальных сетях и мессенджерах. Современные нейросетевые алгоритмы позволяют генерировать реалистичные подделки за короткое время, что значительно усложняет их распознавание.
Настоятельно рекомендуем:
- Не совершайте платежи на основании устных, голосовых или видеораспоряжений, поступивших через непроверенные каналы связи.
- Лично уточняйте информацию у человека или организации, от имени которых поступила просьба, используя только официальные контакты.
- Не переходите по ссылкам и не предоставляйте конфиденциальные данные (пароли, реквизиты карт) в ответ на срочные требования.
- Проверяйте источники: официальные компании никогда не запрашивают переводы через мессенджеры, соцсети или иные неподтверждённые платформы.
В случае сомнений в подлинности обращения или при столкновении с подозрительной ситуацией свяжитесь со службой поддержки через официальные каналы связи.