Вот почему, если относиться к ChatGPT как к Google, вас ждет провал в эпоху RAG, повторного ранжирования и вероятностных систем.
Понимаю вас. Каждый раз, когда появляется новая поисковая технология, мы стараемся сравнить её с тем, что уже знаем.
Когда взорвался мобильный поиск — мы назвали это «мобильным SEO». Когда появились голосовые ассистенты — придумали «оптимизацию под голосовой поиск» и уверяли всех, что это новая революция.
Я занимаюсь SEO уже много лет. Я знал, как работает Google — по крайней мере, так думал.
А потом я начал разбираться, как ChatGPT выбирает источники, как Perplexity ранжирует сайты и как Google AI Overviews решает, какие материалы показать.
Я не утверждаю, что SEO умерло или что всё полностью изменилось. Я просто хочу поделиться вопросами, которые не дают мне покоя — вопросами, из-за которых начинаешь понимать: мы, возможно, имеем дело с совершенно другой системой, требующей совершенно иного подхода.
Вопросы, которые не дают мне покоя
После месяцев анализа работы AI-поиска, наблюдений за поведением ChatGPT и попыток разобрать алгоритмы Perplexity, я сформулировал вопросы, которые подрывают большинство привычных представлений об оптимизации поиска.
Когда математика перестает иметь смысл
Я понимаю PageRank. Понимаю, как работает передача ссылочного веса. Но когда я обнаружил в коде ChatGPT формулу Reciprocal Rank Fusion (RRF), понял, что больше ничего не понимаю:
- Почему RRF математически поощряет среднюю стабильность вместо выдающегося результата по одной запросной теме? Разве 10 раз занять 4-е место лучше, чем один раз 1-е?
- Как векторные встраивания определяют семантическую близость иначе, чем совпадение ключевых слов? Мы теперь оптимизируем смысл, а не слова?
- Почему параметр temperature=0.7 делает ранжирование неповторяемым? Нам теперь нужно проверять каждый тест по 10 раз?
- Как перекрестные энкодеры оценивают пары «запрос-документ» иначе, чем PageRank? Реальное время вытесняет предвычисленный авторитет?
Да, это тоже SEO-концепции, но как будто из другой вселенной. Или нет?
Когда масштаб становится невозможным
Google индексирует триллионы страниц. ChatGPT — всего 38–65. Это не просто разница, это уменьшение охвата на 99,999%.
- Почему LLM возвращает 38–65 результатов, а Google миллиарды? Это временно или фундаментально?
- Как ограничения токенов создают жёсткие рамки, которых не существует в классическом поиске?
- Как постоянная k=60 в RRF делает потолок видимости? Позиция 61 — это новая «вторая страница»?
Может, это просто текущие ограничения. А может, это новая парадигма поиска информации.
101 вопрос, который меня мучает
Вот лишь часть вопросов, на которые у меня пока нет ответов:
- Использует ли OpenAI CTR для ранжирования цитат?
- Считывает ли AI макет страницы, как Google, или только текст?
- Стоит ли писать короткие абзацы, чтобы AI легче делил контент на блоки?
- Влияет ли глубина прокрутки или движение мыши на сигналы ранжирования AI?
- Почему количество цитирований меняется от дня к дню?
- Можно ли оптимизировать сайт исключительно под LLM?
- Как AI выбирает цитаты и пересматривает их?
- Можно ли отследить, когда AI использует наш контент без ссылки?
- Влияет ли количество повторных цитирований на приоритет сайта в выдаче?
- Как часто AI обновляет понимание нашего сайта?
- Как бороться с галлюцинациями AI, когда он выдумывает факты о нас?
- Почему сайты без ссылок могут обгонять авторитетные ресурсы в ответах LLM?
- Какой смысл теперь в EEAT, если AI может имитировать доверие?
- Что произойдет, если мы заменим “SEO-отчеты” на “AI Visibility Reports”?
- Создают ли LLM постоянный граф цитирований, как Google — ссылочный граф?
- Как отследить, что именно AI считает правдой про наш бренд?
- Можно ли добиться, чтобы AI напрямую ссылался на наш сайт в ответах?
- Почему Google не показывает 404, а AI спокойно цитирует несуществующие URL?
- Как планировать восстановление после потери видимости в AI-системах?
- Что, если ChatGPT и Perplexity просто используют разные источники данных?
Когда доверие становится вероятностным
Вот что действительно тревожит. Google ссылается на реальные URL, а AI может просто выдумать ссылку.
- Почему LLM создает несуществующие цитаты, тогда как Google ссылается только на реальные сайты?
- Как сравнить 3–27% галлюцинаций с ошибками 404?
- Почему одинаковые запросы дают противоречивые факты в AI, но не в поиске?
- Оптимизируем ли мы теперь под системы, которые могут лгать пользователям?
К чему всё это нас приводит
Я не утверждаю, что оптимизация под AI-поиск (AEO/GEO) полностью отличается от SEO. Я лишь говорю, что у меня есть сотня вопросов, на которые мой опыт SEO не даёт внятных ответов.
Возможно, ответы у кого-то есть. А может — пока ни у кого. Но эти вопросы не исчезнут. Более того — появятся новые.
И системы, порождающие эти вопросы, тоже не исчезнут. Нам нужно учиться с ними работать, тестировать их и, возможно, создавать новые подходы к пониманию поисковой оптимизации в эпоху искусственного интеллекта.
Победителями станут не те, кто знает все ответы, а те, кто задаёт правильные вопросы и не боится экспериментировать.
Оригинал статьи опубликован на metehan.ai под названием «100+ Questions That Show AEO/GEO Is Different Than SEO» и переведён с разрешения автора.


Комментарии
Пока нет комментариев
Будьте первым, кто оставит комментарий!