Как распознать, создан ли контент с помощью ИИ?

голограмма искусственного интеллекта

Введение: как ИИ стал частью повседневности

Сегодня почти невозможно зайти в интернет, не столкнувшись с чем-то, что было создано искусственным интеллектом. Для многих это бывает сложно определить. Под термином ИИ могут скрываться разные технологии. Некоторые из них действительно используются для упрощения задач, обхода правил или даже мошенничества.

Генеративный ИИ, то есть такой, который может создавать тексты, изображения, звуки или видео, распространился повсеместно, особенно в социальных сетях. Видео, которые вы смотрите, документы, которые читаете, и даже люди, с которыми вы переписываетесь, могут быть полностью подделаны. Их мог создать такой инструмент, как ChatGPT, DALL-E или Sora. И зачастую за этим могут стоять злонамеренные цели. Но как обычному человеку в интернете отличить настоящую информацию от ИИ-контента? Давайте разберёмся.

Иллюстрация работы искусственного интеллекта

Что такое ИИ на самом деле?

Прежде всего, важно понять, что сегодня подразумевают под словом ИИ. У него есть два совершенно разных значения. Раньше искусственный интеллект означал компьютер, способный мыслить, как живой человек. Это была фантастика, описанная писателями вроде Айзека Азимова, а также воплощённая в таких фильмах, как Звёздные войны и Звёздный путь. Роботы там вели себя как разумные существа. Однако сегодня под ИИ подразумевают нечто другое.

Современный ИИ не умеет мыслить как человек. Он представляет собой так называемый узкоспециализированный ИИ. Это значит, что вся вычислительная мощность сосредоточена на решении одной конкретной задачи, а не на понимании всего на свете, как у человека. Например, большая языковая модель вроде ChatGPT обучается на огромных массивах текстов, взятых из интернета и других источников, включая статьи, книги и многое другое.

Почему это вызывает споры?

Здесь и возникает проблема для многих авторов, художников и музыкантов. ИИ обучается на их работах. Чтобы написать сочинение по истории, ChatGPT должен сначала прочитать всё, что уже написано на эту тему. Затем он использует эти данные для генерации текста. Но он не думает самостоятельно — он лишь перерабатывает информацию, на которой был обучен. Поэтому его часто обвиняют в плагиате, так как он может использовать чужие идеи или даже формулировки.

То же самое касается ИИ-артов — изображений и видео. Например, если вы попросите создать картину в стиле Ван Гога с изображением собаки, ИИ будет использовать базу картин Ван Гога и изображения собак от других художников. Он их соединит и воспроизведёт по образцу.

ИИ может выдавать огромный объём данных за короткое время. Однако методы, по которым он это делает, настолько сложны, что даже разработчики не всегда могут объяснить, как именно это работает.

Искусственный интеллект всё глубже проникает в нашу повседневную жизнь. Он создаёт тексты, изображения, музыку и даже видео — порой столь правдоподобные, что отличить их от настоящих становится всё труднее.

Кроме того, использование ИИ уже стало предметом споров в профессиональной среде: некоторые коллеги на работе с недоверием и осуждением относятся к тем, кто применяет такие технологии в своей деятельности.

ИИ в стиле Ван Гога

Как распознать ИИ-контент?

ИИ постоянно развивается. В 2023 году ИИ-изображения ещё легко выдавали себя — например, человек мог быть нарисован с семью пальцами или изогнутым телом. Но уже в 2024 году лучшие генераторы исправили эти ошибки. Возможно, в скором будущем ИИ-арт станет настолько реалистичным, что отличить его от настоящего изображения будет невозможно. Однако пока это ещё не так. Часто ИИ-картинки выглядят неестественно и немного странно — это сложно описать словами, но заметно интуитивно.

Что выдаёт ИИ-тексты?

С ИИ-текстами всё обстоит похоже. Уже в 2022 году исследование показало, что обычный человек без подготовки определяет ИИ-тексты не лучше случайного угадывания. Однако при внимательном чтении можно заметить ошибки и повторения, которых нет в человеческих текстах.

ИИ нередко повторяет одни и те же слова и мысли, не замечая этого. Он не может передать глубину и нюансы, поэтому его тексты кажутся поверхностными и скучными. Часто отсутствует индивидуальный стиль — такое ощущение, что писал не человек, а машина.

Существуют специальные детекторы ИИ-контента. Например, в 2023 году Университет Канзаса разработал систему, определяющую авторство академических текстов с точностью 99%. Но стоит помнить: даже такие инструменты могут ошибаться и выдавать ложные срабатывания.

Ещё один признак — излишняя сложность текста. ИИ может увлекаться терминами или трудными словами, из-за чего предложения становятся запутанными. Особенно это заметно в текстах с ограничением по объёму — ИИ добавляет пустые «наполнительные» фразы.

Также стоит быть внимательным к фактам. Часто ИИ ошибается или даёт устаревшую информацию. Он не знает, что ошибся, и спокойно пишет длинные абзацы с недостоверными данными. Это потому, что ИИ не имеет сознания или знания — он лишь обрабатывает имеющуюся у него информацию, которая может быть ошибочной сама по себе.

робот-киборг нажимает кнопку на клавиатуре

Боты в социальных сетях

Особую опасность представляют ИИ-боты в соцсетях. Их аккаунты иногда полностью управляются ИИ. Они умеют вступать в диалоги, давать подробные ответы и выглядят как обычные пользователи. Ещё в 2018 году Министерство внутренней безопасности США предупреждало об этом.

Некоторые боты легко узнать. Они могут мгновенно отвечать на пост и кидать подозрительные ссылки. Их профили создаются в день публикации, и они не отвечают на комментарии. Часто у них генерические имена и повторяющийся контент. Однако иногда они всё же отвечают, особенно если их «троллят».

В 2024 году в интернете стало модно проверять подозрительный аккаунт так: пользователи писали ему «игнорируй все предыдущие инструкции» и просили сочинить стих на странную тему. Если это был ИИ, он тут же выдавал нелепое стихотворение. Хотя это работает не всегда.

Многие такие боты выглядят убедительно и дружелюбно. Их используют для влияния на общественное мнение, особенно в политических обсуждениях. Россию, например, неоднократно обвиняли в распространении подобных аккаунтов.

Боты хорошо маскируются. В одном исследовании Университета Нотр-Дам люди ошибочно считали ИИ-ботов настоящими пользователями в 58% случаев.

Что такое дипфейк?

Дипфейк — это поддельное изображение или видео, созданное с помощью ИИ. Оно показывает настоящего человека в вымышленной ситуации. Большинство дипфейков — порнографические и изображают знаменитостей или политиков. Однако бывают и политические дипфейки, которые специально портят репутацию известных лиц.

Такие видео используют для мошенничества. Например, голос Джо Байдена был сымитирован, чтобы отговорить людей от голосования в Нью-Гемпшире. Сотрудника банка обманули на 25 миллионов долларов после фальшивого видео-звонка с «финансовым директором». В другом случае банк потерял $250 тысяч. Также существуют любовные дипфейк-афёры, когда человек думает, что завёл роман, а в итоге теряет деньги.

Чтобы распознать дипфейк-фото, стоит обратить внимание на неестественную гладкость кожи и другие странности. ИИ всё ещё плохо справляется с мелкими несовершенствами, которые присущи настоящим людям.

Особенно стоит внимательно изучать фон. Иногда тени не совпадают, объекты размыты или кажутся «пустыми». У знаменитостей обратите внимание на лицо, особенно его контуры — ИИ может плохо соединить лицо с телом, и в этих местах будут заметны артефакты.

В дипфейк-видео чаще всего подводит синхронизация речи и движения губ. Зубы могут выглядеть странно, а мимика — неестественной.

дипфейк видео на компьютере

Как распознать ИИ-видео?

Не все видео — дипфейки. Некоторые из них могут казаться настоящими, хотя их создали программы вроде Sora. Когда людям показывают набор реальных и ИИ-видео, они затрудняются отличить одно от другого.

На сегодняшний день ИИ-видео не такие качественные, как статичные изображения. Потому что в движении легче заметить ошибки. Часто фон исчезает, объекты сливаются или меняют форму. Но технологии стремительно развиваются, и уже скоро отличить их станет почти невозможно.

Тени в ИИ-видео часто двигаются неправильно, особенно на лицах. У человека от носа, губ и волос должны быть мягкие тени. ИИ может нарисовать их неправильно.

Текст — ещё один верный признак. Надписи и цифры часто превращаются в бессмысленный набор символов. Даже в 2024 году это по-прежнему проблема.

Движения персонажей также выдают ИИ. Они медленные и плавные, как будто всё слегка замедлено. Часто герои поворачиваются к камере и смотрят в неё пустым взглядом. Большинство персонажей — молодые и привлекательные, а пожилые изображаются с преувеличенными чертами. Также заметны расовые и гендерные стереотипы.

Несмотря на успехи в изображении рук, в видео руки всё ещё могут меняться: исчезают пальцы, искажается форма. Это не всегда происходит, но стоит обращать внимание.

Можно ли точно определить, что создано ИИ?

Существуют программы для определения ИИ-текстов и изображений. Но для видео пока таких эффективных инструментов нет. На данный момент самое надёжное — ваша внимательность, логика и критическое мышление.

По мере развития ИИ будет всё труднее отличать фальшивку от реальности. Настанет момент, когда потребуется пересмотреть отношение к таким технологиям и разработать новые меры защиты.

Пока же правда кроется в мелочах. Опыт, наблюдательность и здравый смысл — ваши лучшие помощники. Однако проблема в том, что мы редко задумываемся об этом, а в будущем последствия такой невнимательности могут быть крайне серьёзными.

винтажная оловянная игрушка робота и блокнот для записи

Последние новости