В российском правовом поле может появиться новая мера противодействия цифровым угрозам. Депутат Госдумы Амир Хамитов от партии «Новые люди» выступил с законодательной инициативой о введении административной ответственности за распространение видеороликов, сгенерированных искусственным интеллектом, которые выдают за реальные события.
Соответствующее предложение уже направлено на рассмотрение в Министерство цифрового развития, связи и массовых коммуникаций РФ, сообщил телеканал «Москва 24».
Наказание будет применяться не ко всем ИИ-видео, а только к тем случаям, когда удастся доказать умысел автора ввести аудиторию в заблуждение, а также если распространение такого контента привело к негативным последствиям.
Речь идёт, например, о фальшивых видеозаписях дорожных происшествий, терактов или других шокирующих событий, которые могут спровоцировать панику. К тому же такие видео могут заставить правоохранительные органы и экстренные службы запускать бесполезные проверки, которые тратят бюджетные средства и рабочее время.
В качестве санкции за подобные нарушения парламентарий предлагает установить административные штрафы. Для граждан их размер может составить от 1 000 до 5 000 рублей. Основная цель этих мер — не просто наказать нарушителей, но и компенсировать ущерб, который был нанесён государственным службам, а также усилить борьбу с дезинформацией.
Как нейросеть маскируется под настоящее видео
Проблема реалистичности фейкового контента особенно актуальна на фоне стремительного развития технологий. Яркий пример — нейросеть Sora2, которая способна создавать слишком правдоподобные видео.
По данным Life.ru, разработчики пытаются бороться со злоумышленниками и при сохранении видео отображаются водяные знаки нейросети. Однако на практике эти метки легко удаляются с помощью специальных программ и других нейросетей, что позволяет мошенникам беспрепятственно выдавать фейки за реальные события.
Видеосообщения-«кружки» / Telegram-канал «Сгенерировано ИИ»
Наряду с новыми нейросетями у кибермошенников пользуются популярностью и другие схемы с видео.
Так, эксперты компании BI.ZONE в беседе с «Коммерсантом» отмечают всплеск новой схемы обмана с использованием поддельных видеосообщений в Telegram. Чтобы завоевать доверие жертвы, мошенники взламывают аккаунт знакомого человека, а затем отправляют в диалог сгенерированный нейросетью видеоролик, где подставное лицо обращается к пользователю с просьбой.
По словам Алексея Лужнова, руководителя управления по противодействию мошенничеству BI.ZONE, многие люди подсознательно доверяют видео с близкими или коллегами, что и играет на руку преступникам.
Для большей убедительности злоумышленники сопровождают такие видео фальшивыми фотографиями и документами, создавая целую легенду и подталкивая жертву к срочному переводу денег.
Как защитить себя и близких от видео нейросети
«Вся эта история с ИИ-видео — это не повод для паники, а сигнал к тому, что наша цифровая бдительность должна стать строже. Технологии обмана стали доступны каждому, а значит, доверять нужно не глазам, а проверенным каналам связи», — считает IT-специалист компании «Сфера» Андрей Глибичук.
По его словам, в финансовых вопросах нужно включать «режим параноика».
Самое главное правило: никогда не реагируйте на просьбы о деньгах или конфиденциальных данных в режиме реального времени, какой бы срочности ни был тон сообщения.
«Ваш друг или родственник в панике по видеосвязи? Прервите разговор и перезвоните ему по номеру телефона, а не в мессенджерах. 99% мошеннических схем рушатся на этом простейшем действии», — предупредил программист.
Андрей также рекомендует создать с близкими «слово-пароль». Это вовсе не шпионская игра, а эффективный механизм безопасности. Стоит заранее договориться в семье и с близкими друзьями о кодовом слове или фразе, которую будете использовать в сообщениях или при разговоре, чтобы подтвердить личность.
«Учитесь видеть «цифровые артефакты». Хотя дипфейки стали очень качественными, они ещё не идеальны. Обращайте внимание на детали: взгляд собеседника часто бывает «стеклянным» или не фокусируется на объекте, а также ИИ всё ещё плохо воспроизводит естественный ритм моргания», — добавил эксперт.
По словам специалиста, контуры волос или очки могут «плыть» и сливаться с фоном, а неестественное падение теней на лицо — частый признак подделки.
«Защитите свои цифровые следы. Чем больше ваших фотографий и видео в открытом доступе, тем качественнее мошенник сможет создать ваш дипфейк. Пересмотрите настройки приватности в соцсетях, ограничьте круг лиц, которые видят ваши фотоальбомы. Не выкладывайте в публичный доступ видео, где вы эмоционально говорите, — это идеальный материал для обучения нейросети», — резюмировал программист.
Напомним, юрист рассказал о том, как распознать аккаунт мошенника в Telegram.
Ранее стало известно, как проверить телефон на слежку и что сделать, если «что-то вредоносное к вам прокралось».
Дарья Клименко
