Генеративный ИИ и клевета: как выглядят новые угрозы репутации

Генеративный ИИ создаёт новые угрозы репутации: ложные сведения, клевета и онлайн-ущерб. Иван Захаров рассказывает, как защитить себя и управлять репутацией в эпоху ИИ.
Генеративный ИИ и клевета: новые угрозы репутации

ИИ-чат-боты меняют способ распространения клеветы. Защита вашей репутации теперь означает внимательное отслеживание того, что ИИ говорит о вас.

По мере того как генеративный ИИ всё больше внедряется в поисковые системы и контентные сервисы, он также становится источником дезинформации и ущерба репутации. Ложные или вводящие в заблуждение заявления, создаваемые ИИ-чат-ботами, уже вызывают судебные разбирательства и поднимают новые вопросы о юридической ответственности, точности информации и управлении онлайн-репутацией.

Когда ИИ становится источником клеветы

Неудивительно, что ИИ стал новым источником клеветы и онлайн-ущерба репутации. Как эксперт в SEO и управлении репутацией, я уже сталкивался с случаями, когда системы ИИ генерировали клеветнические заявления.

Это неизведанная территория, и хотя решения постепенно появляются, многое всё ещё остаётся новым и непростым.

Примеры клеветы, созданной ИИ

Один клиент обратился ко мне после того, как ИИ Meta Llama сгенерировал ложные, вводящие в заблуждение и клеветнические заявления о известной личности. Ранее исследования показали, что этот человек участвовал в судебных делах о клевете и выигрывал их, что освещалось в СМИ. Некоторые критики также писали о нём в интернете, а обсуждения на Reddit содержали неточную и провокационную информацию.

Когда ИИ отвечал на вопросы о человеке или его репутации, он повторял эти опровергнутые утверждения, добавлял новые предупреждения и создавал впечатление мошенничества и ненадёжности.

В другом случае клиент, пострадавший от клеветнических блогов, обнаружил, что почти любой запрос о нём в ChatGPT выдавал те же ложные сведения. Основная проблема: даже если суд прикажет удалить исходные посты, как долго эти клеветнические утверждения будут сохраняться в ответах ИИ?

Фальшивые истории и реальный вред

В других случаях, о которых сообщают судебные иски, генеративный ИИ полностью выдумывал ложный и вредоносный контент о людях. В 2023 году Джонатан Терли, профессор права Джорджтаунского университета, оказался в списке обвиняемых в сексуальных домогательствах – чего на самом деле не было, на выдуманной поездке, в месте, где он никогда не работал. ChatGPT сослался на статью Washington Post, которая никогда не была написана.

В сентябре бывший сотрудник ФБР Джеймс Кин подал иск против Google после того, как ИИ компании заявил, что он отбывает пожизненное заключение и является убийцей трёх женщин. Иск утверждает, что эти ложные утверждения могли быть увидены десятками миллионов пользователей.

Генеративный ИИ способен выдумывать истории о людях – это и есть «генеративная» часть. После запроса чат-бот анализирует данные и формирует ответ на основе изученных текстовых паттернов. Поэтому неудивительно, что ответы ИИ иногда включают ложную и клеветническую информацию.

Улучшения и оставшиеся вызовы

За последние два года чат-боты ИИ улучшили обработку биографической информации о людях. Крупные компании сосредоточились на уточнении систем для правильного ответа на запросы о персоналиях и именах.

В результате генерация ложной информации о людях значительно сократилась. Провайдеры ИИ также стали включать больше предупреждений о достоверности биографических данных, например:

  • Ограниченная информация
  • Неуверенность в идентичности человека
  • Отсутствие независимой проверки

Неясно, насколько такие предупреждения защищают от ложных или вредоносных утверждений, но это лучше, чем отсутствие предупреждения.

На данный момент основные угрозы репутации от ИИ связаны не столько с выдумками, сколько с:

  • Неправильной интерпретацией исходного материала
  • Повторением клеветнических утверждений других
  • Искажением фактов в вводящем в заблуждение виде

Юридическая ответственность и Раздел 230

Закон о клевете, созданной ИИ, пока развивается, и мало прецедентов, определяющих ответственность компаний за ложные заявления их чат-ботов. Некоторые считают, что Раздел 230 Communications Decency Act может защитить ИИ-компании.

Однако выводы ИИ имеют значительную степень оригинальности и не всегда являются прямым цитированием. Если бы законодатели считали, что выводы ИИ защищены Разделом 230, они вряд ли предлагали бы 10-летний мораторий на местные ограничения ИИ, который в итоге был исключён.

Растущая роль ИИ в управлении репутацией

ИИ всё чаще используется для проверки биографических данных и репутации людей. Поскольку эти системы становятся точнее, общество всё больше склонно верить тому, что говорит ИИ, даже если информация ложная или клеветническая.

ИИ также применяется в проверках на благонадёжность. Например, сервис Checkr использует ИИ для поиска потенциально негативной информации о людях, что может повлиять на их трудоустройство. В отличие от крупных провайдеров, такие сервисы редко дают предупреждения о достоверности данных.

Что можно сделать с клеветой в ИИ?

Один из способов – напрямую просить платформы исправить или удалить ложные и вредоносные сведения. Некоторые компании, например Meta, уже реагируют на такие обращения.

Как связаться с основными провайдерами ИИ

  • Meta Llama: Llama Developer Feedback Form или LlamaUseReport@meta.com
  • ChatGPT: Сообщить через интерфейс чата
  • Google AI Overviews и Gemini: Отправить отзыв или юридический запрос
  • Bing AI и Microsoft Copilot: Отправить отзыв через интерфейс или форму Report a Concern
  • Perplexity AI: support@perplexity.ai
  • Grok AI: Через интерфейс или xAI

Дополнительные методы защиты репутации от ИИ

Удаление негативного контента из исходных источников

Большинство вредоносного контента собирается ИИ из существующих онлайн-источников. Удаление или исправление этих источников снижает риск повторения информации ИИ.

Создание положительного и нейтрального контента

ИИ ориентируется на объём достоверной информации. Публикация достаточного количества точного, положительного или нейтрального материала может сместить акценты в ответах ИИ.

Смещение негативной информации в результатах поиска

Классическая SEO-методика по смещению негативного контента в поиске остаётся актуальной, но ИИ требует более глубокого анализа и подавления вредоносного материала на большем количестве страниц.

Использование альтернативных онлайн-персон

Создание нескольких цифровых профилей с одинаковыми именами может снизить уверенность ИИ в конкретной личности и уменьшить вероятность появления клеветнической информации.

Старые законы, новые риски

Иногда гибридный подход с использованием всех вышеописанных методов необходим для защиты от ущерба, вызванного клеветой в ИИ. Судебные процессы сложны, дороги и могут не дать мгновенного результата.

Также существует риск, что старая клевета снова проявится через ответы ИИ, что может привести к новым судебным прецедентам о «новой публикации» клеветнического материала. В перспективе возможно принятие новых законов, дающих людям больше контроля над персональной информацией в ИИ.

Вред, наносимый репутации через ИИ, остаётся быстро развивающейся областью – юридически, технологически и стратегически. Ожидаются дальнейшие изменения, по мере того как суды, законодатели и технологи будут разбираться с этой новой проблемой.

Комментарии

Пока нет комментариев

Будьте первым, кто оставит комментарий!

Войдите, чтобы оставить комментарий

Оставлять комментарии могут только зарегистрированные пользователи