
Написать текст, создать видео или изображение — теперь эти задачи с легкостью выполняет генеративный искусственный интеллект (ИИ). В отличие от традиционного ИИ, который в основном автоматизирует рутинные операции, генеративный создает новый контент на основе данных, на которых его обучали. Такие материалы все сложнее отличить от созданных человеком, и это может вводить в заблуждение. Например, сгенерированные ИИ видео могут выдаваться за документальные, а авторство ИИ-текстов — приписываться человеку, который их не писал. Как выяснить, что перед вами текст, изображение или видео, созданные нейросетями, рассказали эксперты проекта «Перезвони сам».
«В большинстве случаев пользователи публикуют ИИ-контент в интернете для развлечений, например создают в социальных сетях аккаунты персон, которых не существует, и публикуют в них сгенерированные изображения. Но и злоумышленники могут использовать технологию, чтобы обмануть, ввести в заблуждение или совершить преступление. Они пишут заявления от имени публичных личностей, которых те не делали, создают видео, на которых знакомый человек якобы просит о помощи. Как правило, цель такого контента — публикация заведомо ложной информации, шантаж или вымогательство. В таких случаях важно знать, на что обращать внимание, чтобы вычислить ИИ-контент и не дать себя обмануть», — рассказали в пресс-службе столичного Департамента информационных технологий.
Как распознать ИИ-текст
Отличительные черты ИИ-текста — на первый взгляд четкая структура (вступление, списки, деление на абзацы, заключение), но при внимательном прочтении иногда можно заметить нарушенную логику повествования и вымышленные факты. Главные выводы дублируются, часто без добавления новой информации.
Хотя современные большие языковые модели (LLM, Large language model) обучают имитировать эмоции человека, ИИ все же не может отстаивать свою позицию, даже если тема это предполагает. Кроме того, он не имеет жизненного опыта и воображения, поэтому в машинных текстах чаще всего встречаются стандартные метафоры и сравнения, редки цитаты, даже косвенные, отсутствуют личные примеры из жизни.
Проверить авторство текста помогут специальные программы — ИИ-детекторы. Однако стоит учитывать, что ни один детектор не дает 100-процентной гарантии, что материал написан искусственным интеллектом. Кроме того, можно спросить у нейросетей, кто автор текста: ИИ или человек. И попросить аргументировать свою позицию.
Следует также обратить внимание на контекст и условия публикации:
— время размещения (аномальная активность, например поздно вечером или ночью);
— отсутствие материалов на ту же тему на проверенном интернет-ресурсе;
— анонимный канал в мессенджере;
— почтовая рассылка с незнакомого адреса.
Чтобы окончательно принять решение о том, подлинный материал или нет, нужно учитывать совокупность всех признаков и обязательно проверять источник публикации.
Как определить ИИ-фотографию
Генеративный ИИ значительно продвинулся в создании изображений, в том числе людей. На первый взгляд их трудно отличить от реальной съемки.
Эксперты проекта «Перезвони сам» перечислили признаки ИИ-фото:
— неестественный взгляд человека;
— искаженная анатомия (размер и форма ушей, количество пальцев);
— неестественные детали одежды и волос (необычные складки, пряди);
— странные тени (неправильное отражение от источников света);
— нарушенные пропорции и логика расположения объектов (неестественные размеры, парящие предметы);
— необычные надписи, эмблемы, логотипы (ошибки в словах, искажение или выдуманные элементы);
— отсутствие метаданных (нет информации о камере, параметрах файла, дате, местоположении).
Как и в случае с текстами, для проверки фотографий можно использовать ИИ-детекторы или предложить нейросетям ответить на вопрос: создано ли изображение ИИ или это фотография. Несмотря на то что ответ не дает 100-процентной точности, вместе с другими фактами он поможет сделать вывод о том, подлинный снимок или нет.
Как отличить ИИ-видео от реального
Возможность генерировать видео сегодня предлагают уже десятки ИИ-сервисов, поэтому пользователи сталкиваются с такими роликами все чаще.
На возможное ИИ-происхождение видео могут указывать следующие признаки, особенно если их несколько:
— несовпадение движения губ с произносимыми словами;
— неестественная мимика (например, человек смеется, а глаза при этом неподвижны или смотрят в никуда, нет движений век или они слишком частые);
— отсутствует естественная реакция зрачков на свет и фокусировка на объектах;
— эмоции, не соответствующие обстановке или настроению говорящего;
— слишком медленные или хаотичные движения рук, неестественная длина пальцев;
— артефакты изображения (статичные объекты или люди, которые то появляются, то исчезают, нереалистичные автомобили, животные неестественных размеров или цветов);
— идеальное лицо (отсутствие пор, мелких морщин, родинок или естественной асимметрии лица);
— несоответствие теней на лице или объектах источнику света в сцене;
— нарушения перспективы, пропорций предметов.
Особенно внимательно необходимо изучать видео, если на нем известный человек, например, политик делает важное заявление или кто-то из знакомых просит помощи либо совершить какие-либо другие действия. Стоит помнить, что в таких случаях не нужно принимать поспешных решений.
Выяснить подлинность видео поможет, например, сравнение с более ранними выступлениями человека — даже лучшие современные сервисы пока не могут идеально скопировать манеру речи, интонации, движения и мимику. Нужно также обратить внимание на то, где опубликован ролик: не стоит доверять каналам в социальных сетях или почтовым рассылкам с неизвестных адресов.
Сегодня один из самых распространенных способов мошенничества на основе дипфейк-технологии — это фальшивые видеозвонки, аудио и изображения, сгенерированные с применением искусственного интеллекта. О том, как защитить себя от дипфейков, можно узнать в материале, а также из памятки столичного проекта «Перезвони сам».
Проверить присланное аудиосообщение на наличие синтезированной речи и признаков мошенничества поможет бесплатный телеграм-бот «Стопфейк», созданный в рамках проекта «Перезвони сам». Сервис с применением искусственного интеллекта анализирует присланные текстовые сообщения, скриншоты переписок и аудиофайлы, определяя вероятность использования мошеннических схем.
Что такое проект «Перезвони сам»
Информационный онлайн-проект «Перезвони сам» создан в 2022 году Правительством Москвы совместно с Главным управлением МВД России по городу Москве. Он помогает жителям столицы уберечь себя и близких от телефонного и интернет-мошенничества. На сайте проекта размещена информация о ближайших очных и онлайн-мероприятиях, а также памятки и рекомендации экспертов, записи уже прошедших вебинаров и другие полезные материалы. Для удобства пользователей записи лекций можно смотреть на сайте проекта, на странице в социальной сети «ВКонтакте» и на Rutube.
Главные составляющие проекта «Перезвони сам» — это простые и понятные советы экспертов, актуальные истории и удобный формат. На мероприятиях разбирают реальные истории пострадавших, обращают внимание на приемы мошенников, а также рассказывают, как правильно себя вести в подобной ситуации.
В 2023 году проект «Перезвони сам» победил в номинации «Лучший сайт социального проекта» премии «Золотой сайт». Кроме того, он получил премию Рунета в номинации «Информационная безопасность». В 2025 году проект удостоился награды международного конкурса МВД «Щит и перо» и IV Всероссийского конкурса «Кубок информационной безопасности регионов».
Создание и поддержка средств обеспечения информационной безопасности, а также противодействие кибермошенничеству соответствуют задачам национального проекта «Экономика данных и цифровая трансформация государства». Подробнее о национальных проектах России и вкладе столицы можно узнать на специальной странице.
Оперативно узнавайте главные новости в официальных каналах города Москвы в мессенджерах «Макс» и «Телеграм».


