Только в этом году SEO умирало тысячу раз, а модным словом, которое звучит в каждом зале заседаний (и, будем честны, везде), является «ИИ».
За последние полтора года Google выпустила несколько представлений на базе искусственного интеллекта, а также последнюю версию своего конкурента SearchGPT — AI Mode. Мы наблюдаем снижение трафика, с которым очень трудно бороться, если придерживаться традиционного взгляда на свою роль специалистов по поиску.
И вполне естественно, что дебаты, которые мы постоянно слышим, одни и те же: отнимет ли ИИ в конечном итоге наши рабочие места? Строго говоря, скорее всего, так и будет.
SEO, как мы его знаем, кардинально изменилось. Оно будет продолжать развиваться, заставляя людей приобретать новые навыки и иметь более широкую, многоканальную стратегию, наряду с четкой и оперативной коммуникацией с заинтересованными сторонами, которые все еще могут быть озадачены тем, почему клики продолжают падать, а показы остаются прежними.
Ожидается, что следующий год принесет изменения и, возможно, некоторые ответы на этот спор.
Но в то же время мне удалось сделать некоторые прогнозы, основанные на исследовании способности людей распознавать ИИ, чтобы увидеть, действительно ли «человеческое прикосновение» имеет преимущество перед ним.
Почему это важно для нас сейчас
Для нас важно знать, могут ли люди распознавать ИИ, поскольку поведение людей меняется, когда они знают, что взаимодействуют с ним, по сравнению с тем, когда они этого не знают.
Исследование , проведенное в 2023 году Юньхао Чжаном и Рене Ричардсон Гослайн, сравнивало контент, созданный людьми, искусственным интеллектом и гибридными подходами для маркетинговых копий и кампаний убеждения.
Они заметили, что когда источник не был раскрыт, участники предпочитали контент, созданный ИИ, и результат менялся на противоположный, когда они знали, как был создан контент.
Как будто прозрачность использования ИИ добавила во взаимодействие слой неуверенности, коренящийся в общем недоверии, которое присуще любому новому и относительно неизвестному опыту.
В конце концов, мы веками потребляли контент, написанный людьми, но генеративный ИИ начал масштабироваться только в последние несколько лет, так что раньше мы с такой проблемой даже не сталкивались.
Аналогичным образом Габриэле Пицци из Болонского университета продемонстрировал, что когда люди взаимодействуют с чат-ботом на основе искусственного интеллекта в смоделированной среде покупок, они с большей вероятностью сочтут агента компетентным (и, в свою очередь, доверят ему свою личную информацию), когда последний выглядит более человечным, а не «роботизированным».
И как маркетологи мы знаем, что доверие — это важнейшее условие не только для посещения и совершения транзакции, но и для формирования долгосрочных отношений с пользователем по ту сторону экрана.
Итак, если распознавание контента ИИ меняет способ нашего взаимодействия с ним и принятия решений, сохраняем ли мы по-прежнему человеческое преимущество, когда материал ИИ становится настолько близок к реальности, что становится практически неотличимым?
Ваш мозг может различать ИИ, но это не значит, что мы — безошибочные детекторы
Предыдущие исследования показали, что люди испытывают чувство дискомфорта, известное как «зловещая долина», когда видят или взаимодействуют с искусственным объектом с полуреалистичными чертами.
Это негативное чувство проявляется физиологически в виде более высокой активности нашей симпатической нервной системы (отдела, отвечающего за нашу реакцию «бей или беги») еще до того, как участники успевают устно сообщить о нем или даже осознать его.
Это показатель их «интуитивного чутья» по отношению к стимулу, который имитирует человеческие черты, но не в полной мере.
Феномен зловещей долины возникает из-за того, что наш мозг, привыкший предсказывать закономерности и заполнять пробелы на основе собственного опыта, воспринимает эти стимулы как «сбои» и отмечает их как выбросы в известной нам библиотеке лиц, тел и выражений.
Отклонение от нормы и неопределенность в маркировке этих «сверхъестественных» стимулов могут вызывать когнитивные реакции, которые проявляются в повышенной электродермальной активности (сокращенно ЭДА) — показателе психологического возбуждения, который можно измерить с помощью электродов на коже.
На основании этих данных можно предположить, что наш мозг способен распознавать ИИ до того, как он начнет активно различать их, и что мы можем видеть более высокую ЭДА в отношении лиц, созданных с помощью ИИ, особенно если в них есть что-то «не то».
Однако неясно, на каком уровне реализма мы перестаем демонстрировать отличительную реакцию, поэтому было решено выяснить это с помощью отдельного исследования.
Вот вопросы, на которые искались ответы:
- Есть ли у нас встроенная предсознательная система «детектора» для ИИ, и в какой момент реалистичной имитации он перестает реагировать?
- Если да, то будет ли это определять нашу активную дискриминацию между ИИ и человеческим контентом?
- Влияет ли на нашу способность к различению общее воздействие стимулов ИИ в реальной жизни?
И самое главное, могут ли ответы на эти вопросы предсказать, с какими следующими проблемами придется столкнуться в поиске и маркетинге?
Чтобы ответить на эти вопросы, были проведены замеры электрической активности кожи у 24 участников в возрасте от 25 до 65 лет, когда им предъявляли нейтральные, созданные искусственным интеллектом и человеком изображения, и проверил наличие существенных различий в ответах на каждую категорию.
Исследование проходило в три этапа, по одному на каждый вопрос:
- Первая задача, в которой участники визуализировали нейтральные, ИИ и человеческие статические стимулы на экране без каких-либо действий, в то время как их электродермальная активность регистрировалась. Это было предназначено для измерения автоматической, предсознательной реакции на представленные стимулы.
- Второе поведенческое задание, в котором участники должны были нажать кнопку, чтобы как можно быстрее и точнее классифицировать увиденные ими лица, разделив их на сгенерированные искусственным интеллектом и человеком, чтобы измерить свои навыки сознательного различения.
- Финальная фаза, на которой участники заявляли о своем демографическом диапазоне и знакомстве с ИИ по шкале самооценки по пяти вопросам. Это дало мне самооценку «грамотности ИИ» для каждого участника, которую я мог соотнести с любыми другими измерениями, полученными из физиологических и поведенческих задач.
И вот что получилось:
- Участники показали значительную разницу в предсознательной активации между условиями, и в частности, EDA была значительно выше для человеческих лиц, чем для лиц ИИ (как гиперреалистичных, так и CGI-лиц). Это подтверждает гипотезу о том, что наш мозг может различать лица ИИ и людей еще до того, как мы инициируем задачу различения.
- Более высокая активация для человеческих лиц контрастирует со старой литературой, показывающей более высокую активацию для стимулов зловещей долины, и это может быть связано либо с нашим собственным привыканием к визуальным эффектам CGI (то есть они больше не вызывают выбросов), либо с автоматическим когнитивным усилием, вовлеченным в попытку экстраполировать эмоции человеческих нейтральных лиц. По сути, ограничение EDA заключается в том, что оно сообщает нам, что что-то происходит в нашей нервной системе, но не сообщает нам, что именно: более высокая активность может быть связана со знакомством и предпочтением , отрицательными эмоциональными состояниями или даже когнитивным усилием, поэтому необходимы дополнительные исследования по этому вопросу.
- Знакомство с материалами ИИ и их воздействие коррелировали с более высокой точностью, когда участникам приходилось активно классифицировать лица как сгенерированные ИИ и человеческие, что подтверждает гипотезу о том, что чем больше мы подвергаемся воздействию ИИ, тем лучше мы учимся замечать тонкие различия.
- Люди гораздо быстрее и точнее классифицировали стимулы типа «зловещей долины» в сгенерированную ИИ корзину, но испытывали трудности с гиперреалистичными лицами, ошибочно классифицируя их как человеческие лица в 22% случаев.
- Активная дискриминация не направлялась предсознательной активацией. Хотя можно заметить разницу в автономной активности для ИИ и человеческих лиц, она не коррелировала с тем, насколько быстрыми или точными были участники.
- Фактически, можно утверждать, что участники «пересматривали» свои собственные инстинкты, когда знали, что им нужно сделать выбор.
И все же, самым важным результатом из всех стало то, что замечено в пилотном исследовании, проведенном перед реальным исследованием: когда участник знаком с представленным брендом или продуктом, именно его отношение к нему определяет то, что мы видим на нейронном уровне, а не автоматическая реакция на представленное изображение.
Таким образом, хотя наш мозг технически может «уловить разницу», наши эмоции, знакомство с брендом, сообщение и ожидания — все это факторы, которые могут существенно исказить наше собственное отношение и поведение, по сути, делая нашу дискриминацию (автоматическую или нет) практически нерелевантной в каскаде оценок, которые мы делаем.
Это имеет огромное значение не только для того, как мы удерживаем нашу существующую аудиторию, но и для того, как мы взаимодействуем с новой.
Сейчас мы находимся на этапе, когда понимание того, чего хочет наш пользователь за пределами непосредственного запроса, становится еще более важным, и у нас будет конкурентное преимущество, если мы сможем определить все это до того, как он явно выразит свои потребности.
Путь к выживанию — не выход из игры. Это изучение новых правил игры.
Итак, нужны ли маркетингу по-прежнему реальные люди?
Определенно да, хотя сейчас это трудно увидеть, поскольку все предприятия охвачены страхом упустить большие возможности ИИ и отвлекаются на новые блестящие объекты, ежедневно заполняющие Интернет.
Люди преуспевают в переменах — именно так мы учимся и развиваем новые связи и ассоциации, которые помогают нам адаптироваться к новым условиям и процессам.
Слышали ли вы когда-нибудь слово «нейропластичность»? Хотя это может показаться просто красивым термином для обучения, это буквально способность вашего мозга перестраиваться в результате опыта.
Вот почему я думаю, что ИИ не отнимет у нас работу. Мы фокусируемся на быстром прогрессе ИИ в способности поглощать контент и воссоздавать результаты, которые практически неотличимы от наших собственных, но мы не обращаем внимания на нашу собственную способность развиваться в этой области нового уровня.
Искусственный интеллект будет продолжать развиваться, но вместе с ним будет совершенствоваться и наше восприятие искусственного интеллекта, а также наше поведение по отношению к нему, основанное на опыте, который мы приобретаем с помощью новых процессов и материалов.
Результаты исследований показывают, как знакомство с ИИ влияет на то, насколько хорошо мы его распознаем, а через год даже результаты EDA могут измениться в зависимости от прогрессирующего воздействия.
Наш скептицизм и недоверие к ИИ коренятся в его неизведанных сторонах, а также во многих случаях его неправильного использования, которые мы наблюдаем как побочный продукт быстрого и практически нерегулируемого роста.
Характер нашего дальнейшего взаимодействия с ИИ определит наше поведение.
Это шанс для отрасли создать ценный опыт на основе ИИ, не жертвуя качеством нашей работы, нашими этическими обязанностями по отношению к пользователю и нашими отношениями с ним. Это более медленный процесс, но он того стоит.
Мы приближаемся к эпохе человека и машины.
В отличие от подхода «используй ИИ для всего», который мы обычно видим, ниже представлен анализ того, где видно (контролируемую) интеграцию ИИ в нашу работу без проблем, а где, по моему мнению, ему все еще нет места в его текущем состоянии.
Использование: все, что предоставляет информацию, облегчает навигацию и оптимизирует действия пользователя.
- Например, тестирование описаний продуктов на основе функций, уже имеющихся в каталоге, или предоставление сводок отзывов реальных пользователей, которые сразу же подчеркивают плюсы и минусы.
- Виртуальные примерки и возможность рекомендовать продукты на основе сходства.
- Автоматизация таких процессов, как определение возможностей внутренних ссылок, категоризация намерений и объединение нескольких источников данных для более глубокого понимания.
Избегайте: всего, что основано на установлении связи или убеждении пользователя.
- Сюда входит любой контент, который подделывает экспертность и авторитет в этой области. Текущая технология (и отсутствие регулирования) даже допускает наличие влиятельных лиц на основе искусственного интеллекта, но помните, что подлинность вашего бренда по-прежнему остается вашим самым большим активом, который нужно сохранить, когда пользователь хочет конвертироваться. Ловушки обмана, когда он ожидает органического контента, серьезнее, чем просто потеря клика. Это работа, которую вы не можете автоматизировать.
- Аналогично, создание обзоров или пользовательского контента для передачи легитимности или ценности. Если вы знаете, что это то, о чем ваши пользователи хотят получить больше информации, то вы не можете ответить на их сомнения фальшивыми аргументами. Игровые тактики недолговечны в маркетинге, потому что люди учатся различать и активно избегать их, как только понимают, что их обманывают. Люди жаждут подлинности и реального подтверждения своих решений коллегами, потому что это заставляет их чувствовать себя в безопасности. Если мы когда-нибудь достигнем точки, когда, как коллектив, мы почувствуем, что можем доверять ИИ, тогда все может быть по-другому, но этого не произойдет, когда большая часть его текущего использования будет посвящена тому, чтобы обмануть пользователей, заставив их совершить транзакцию любой ценой, а не предоставить необходимую информацию, которая им нужна для принятия обоснованного решения.
- Замена экспертов и контроль качества. Если это обернулось против любимого клиентами Duolingo , это, скорее всего, обернется против вас.
Новые цели, которые нам следует поставить
Здесь для нас начинается новое путешествие.
Коллективное поведение при поиске уже изменилось не только в результате использования искусственного интеллекта для просмотра результатов поиска, что ускоряет и упрощает наше потребление информации и принятие решений, но и в результате внедрения новых каналов и форм контента (революция «Поиска везде», о которой мы сейчас слышим).
Это подводит нас как специалистов по поиску к новым целям:
- Будьте вездесущи: сейчас самое время работать с другими каналами, чтобы улучшить органическую узнаваемость бренда и быть в сознании пользователя на каждом этапе пути.
- Устранение трения: Теперь, когда мы можем получать ответы прямо со страницы результатов поиска, даже не нажимая, чтобы узнать больше, скорость стала новой нормой, и все, что замедляет путешествие, является риском отказа. Предоставление клиентам того, что они хотят, сразу же (прозрачность вашего предложения, удаление ненужных шагов для поиска информации и улучшение пользовательского опыта для выполнения действия) не позволяет им искать лучшие результаты у конкурентов.
- Сохраняйте свою аутентичность: пользователи хотят доверять вам и чувствовать себя в безопасности своего выбора, поэтому не поддавайтесь ажиотажу по поводу масштабируемости, который может навредить вашему бренду.
- Узнайте своих клиентов глубже: данных по ключевым словам больше недостаточно. Нам нужно знать их эмоциональное состояние, когда они ищут, что их расстраивает и какие проблемы они пытаются решить. И самое главное, что они думают о нашем бренде, нашем продукте и чего они от нас ожидают, чтобы мы могли действительно встретить их там, где они есть, прежде чем в игру вступят тысячи других вариантов.
Мы уже там были. Мы снова приспособимся. И я думаю, что мы выйдем прилично (может быть, даже более искусными) по ту сторону шумихи вокруг ИИ.
Комментарии