ИИ-чат-боты меняют способ распространения клеветы. Защита вашей репутации теперь означает внимательное отслеживание того, что ИИ говорит о вас.
По мере того как генеративный ИИ всё больше внедряется в поисковые системы и контентные сервисы, он также становится источником дезинформации и ущерба репутации. Ложные или вводящие в заблуждение заявления, создаваемые ИИ-чат-ботами, уже вызывают судебные разбирательства и поднимают новые вопросы о юридической ответственности, точности информации и управлении онлайн-репутацией.
Когда ИИ становится источником клеветы
Неудивительно, что ИИ стал новым источником клеветы и онлайн-ущерба репутации. Как эксперт в SEO и управлении репутацией, я уже сталкивался с случаями, когда системы ИИ генерировали клеветнические заявления.
Это неизведанная территория, и хотя решения постепенно появляются, многое всё ещё остаётся новым и непростым.
Примеры клеветы, созданной ИИ
Один клиент обратился ко мне после того, как ИИ Meta Llama сгенерировал ложные, вводящие в заблуждение и клеветнические заявления о известной личности. Ранее исследования показали, что этот человек участвовал в судебных делах о клевете и выигрывал их, что освещалось в СМИ. Некоторые критики также писали о нём в интернете, а обсуждения на Reddit содержали неточную и провокационную информацию.
Когда ИИ отвечал на вопросы о человеке или его репутации, он повторял эти опровергнутые утверждения, добавлял новые предупреждения и создавал впечатление мошенничества и ненадёжности.
В другом случае клиент, пострадавший от клеветнических блогов, обнаружил, что почти любой запрос о нём в ChatGPT выдавал те же ложные сведения. Основная проблема: даже если суд прикажет удалить исходные посты, как долго эти клеветнические утверждения будут сохраняться в ответах ИИ?
Фальшивые истории и реальный вред
В других случаях, о которых сообщают судебные иски, генеративный ИИ полностью выдумывал ложный и вредоносный контент о людях. В 2023 году Джонатан Терли, профессор права Джорджтаунского университета, оказался в списке обвиняемых в сексуальных домогательствах – чего на самом деле не было, на выдуманной поездке, в месте, где он никогда не работал. ChatGPT сослался на статью Washington Post, которая никогда не была написана.
В сентябре бывший сотрудник ФБР Джеймс Кин подал иск против Google после того, как ИИ компании заявил, что он отбывает пожизненное заключение и является убийцей трёх женщин. Иск утверждает, что эти ложные утверждения могли быть увидены десятками миллионов пользователей.
Генеративный ИИ способен выдумывать истории о людях – это и есть «генеративная» часть. После запроса чат-бот анализирует данные и формирует ответ на основе изученных текстовых паттернов. Поэтому неудивительно, что ответы ИИ иногда включают ложную и клеветническую информацию.
Улучшения и оставшиеся вызовы
За последние два года чат-боты ИИ улучшили обработку биографической информации о людях. Крупные компании сосредоточились на уточнении систем для правильного ответа на запросы о персоналиях и именах.
В результате генерация ложной информации о людях значительно сократилась. Провайдеры ИИ также стали включать больше предупреждений о достоверности биографических данных, например:
- Ограниченная информация
- Неуверенность в идентичности человека
- Отсутствие независимой проверки
Неясно, насколько такие предупреждения защищают от ложных или вредоносных утверждений, но это лучше, чем отсутствие предупреждения.
На данный момент основные угрозы репутации от ИИ связаны не столько с выдумками, сколько с:
- Неправильной интерпретацией исходного материала
- Повторением клеветнических утверждений других
- Искажением фактов в вводящем в заблуждение виде
Юридическая ответственность и Раздел 230
Закон о клевете, созданной ИИ, пока развивается, и мало прецедентов, определяющих ответственность компаний за ложные заявления их чат-ботов. Некоторые считают, что Раздел 230 Communications Decency Act может защитить ИИ-компании.
Однако выводы ИИ имеют значительную степень оригинальности и не всегда являются прямым цитированием. Если бы законодатели считали, что выводы ИИ защищены Разделом 230, они вряд ли предлагали бы 10-летний мораторий на местные ограничения ИИ, который в итоге был исключён.
Растущая роль ИИ в управлении репутацией
ИИ всё чаще используется для проверки биографических данных и репутации людей. Поскольку эти системы становятся точнее, общество всё больше склонно верить тому, что говорит ИИ, даже если информация ложная или клеветническая.
ИИ также применяется в проверках на благонадёжность. Например, сервис Checkr использует ИИ для поиска потенциально негативной информации о людях, что может повлиять на их трудоустройство. В отличие от крупных провайдеров, такие сервисы редко дают предупреждения о достоверности данных.
Что можно сделать с клеветой в ИИ?
Один из способов – напрямую просить платформы исправить или удалить ложные и вредоносные сведения. Некоторые компании, например Meta, уже реагируют на такие обращения.
Как связаться с основными провайдерами ИИ
- Meta Llama: Llama Developer Feedback Form или LlamaUseReport@meta.com
- ChatGPT: Сообщить через интерфейс чата
- Google AI Overviews и Gemini: Отправить отзыв или юридический запрос
- Bing AI и Microsoft Copilot: Отправить отзыв через интерфейс или форму Report a Concern
- Perplexity AI: support@perplexity.ai
- Grok AI: Через интерфейс или xAI
Дополнительные методы защиты репутации от ИИ
Удаление негативного контента из исходных источников
Большинство вредоносного контента собирается ИИ из существующих онлайн-источников. Удаление или исправление этих источников снижает риск повторения информации ИИ.
Создание положительного и нейтрального контента
ИИ ориентируется на объём достоверной информации. Публикация достаточного количества точного, положительного или нейтрального материала может сместить акценты в ответах ИИ.
Смещение негативной информации в результатах поиска
Классическая SEO-методика по смещению негативного контента в поиске остаётся актуальной, но ИИ требует более глубокого анализа и подавления вредоносного материала на большем количестве страниц.
Использование альтернативных онлайн-персон
Создание нескольких цифровых профилей с одинаковыми именами может снизить уверенность ИИ в конкретной личности и уменьшить вероятность появления клеветнической информации.
Старые законы, новые риски
Иногда гибридный подход с использованием всех вышеописанных методов необходим для защиты от ущерба, вызванного клеветой в ИИ. Судебные процессы сложны, дороги и могут не дать мгновенного результата.
Также существует риск, что старая клевета снова проявится через ответы ИИ, что может привести к новым судебным прецедентам о «новой публикации» клеветнического материала. В перспективе возможно принятие новых законов, дающих людям больше контроля над персональной информацией в ИИ.
Вред, наносимый репутации через ИИ, остаётся быстро развивающейся областью – юридически, технологически и стратегически. Ожидаются дальнейшие изменения, по мере того как суды, законодатели и технологи будут разбираться с этой новой проблемой.


Комментарии
Пока нет комментариев
Будьте первым, кто оставит комментарий!