В России мошенники все чаще используют дипфейк-технологии, создавая при помощи нейросети реалистичное изображение человека. Об этом предупредили в Банке России.
«В фальшивом видеоролике виртуальный герой, голос которого иногда сложно отличить от голоса прототипа, просит перевести деньги на определенный счет.
В некоторых случаях мошенники создают дипфейки работодателей, сотрудников государственных органов из той сферы деятельности, в которой трудится их потенциальная жертва», – сказано на сайте Центробанка.Как отметили в ЦБ, для создания цифровой копии мошенники используют фотографии, видео и запись голоса, которые были получены после взлома аккаунта в социальных сетях или мессенджерах. Кроме того, регулятор призвал быть острожными при получении голосовых или видеосообщений с просьбой о помощи. Отличить дипфейки можно по неестественной монотонной речи, дефектам звука и видео или подозрительной мимике, подчеркивается в сообщении.
Ранее в Сбербанке назвали стоп-слова и фразы, которые чаще всего используют мошенники. Подробнее читайте в материале Общественной службы новостей.
Свежие комментарии