5 мая 2024 года Google нечаянно выложил в сеть свои данные.
Очень подробно все написано в статьях SparkToro Ренда Фишкина и Майка Кинга:
- https://sparktoro.com/blog/an-anonymous-source-shared-thousands-of-leaked-google-search-api-documents-with-me-everyone-in-seo-should-see-them/
- https://sparktoro.com/blog/11-min-video-the-google-api-leak-should-change-how-marketers-and-publishers-do-seo/
- https://ipullrank.com/google-algo-leak
В сети оказались документы, которые не должны были там оказаться. Предупрежу сразу: я не специалист по техническому SEO, у меня нет навыков программирования. Зато у меня есть живой ум, склонность к рефлексиям, умноженная почти на 10-летний опыт работы с контентом на сайтах: выводы из-под фильтров, да и получение этих самых фильтров (кто не безгрешен) в первые годы работы маркетологом.
Вы увидите мои идеи и саркастические замечания. Я надеюсь, это натолкнет вас на собственные выводы и вам станет понятнее как работает огромная поисковая машина.
Краткое содержание и 20 инсайтов
Off Page
- Все новые сайты попадают в «песочницу» — готовьтесь к тому, что ваш сайт будет невидимым на протяжении от года и более. Тем не менее вам придется постоянно наполнять его контентом, добывать качественные обратные ссылки. Словом, вваливать в него инвестиции и не смотреть на рост трафика, потому что его не будет как минимум долго. Google использует параметр siteAuthority, хоть и отрицает это. Впрочем, нет никаких деталей, как siteAuthority используется в реальной жизни, так что моя трактовка очень вольная.
- То, как кликают на ваш сайт (CTR) из результатов выдачи влияет на его ранжирование. Поэтому работайте со сниппетами и метатегами, они должны быть привлекательными: чем чаще на ссылку на сайт кликают посетители, тем чаще Google показывает его в результатах выдачи. Более того, Google считает клики мышкой на странице. А что если посетители что-то читают, смотрят и не оставляют заявки? Что ж, ваша страница больше в выдачу не попадет, работайте над конверсией и надейтесь на камбек.
- Новый бизнес не будет виден в результате поиска. Очеловечить это приведение можно так: создать сайт, оптимизировать страницы и запускать поведенческие. Как именно запустить: реклама, брендинг, наружка, ну или другие методы — решайте сами.
- В документах ресерчеры увидели параметр smallPersonalSite, который маркирует небольшие персональные сайты. Исследователи склоняются к тому, что ничего хорошего это не значит. Развиваете свой небольшой блог? Что ж, надеемся, вам понравится в песочнице [сарказм]. Блог Marketing Link лепил песочных черепашек почти три года, прежде чем получить первые 10 тысяч посещений в месяц.
- Поднять рейтинг страницы и улучшить поведенческие факторы поможет реклама. Ну, мы-то давно об этом знали, зато теперь все официально. Гиганты Hubspot и Semrush давно рекламируют свои статьи из блога: а что, клики недорогие, конкуренция низкая. Только вот все это отдельный бюджет на рекламу и расходы без надежды на конверсии из таких статей. Малому бизнесу такой подход больно ударит по бюджету.
- У Google есть три сегмента/уровня для классификации индексов ссылок (низкое, среднее, высокое качество). Поэтому если вы создали новую страницу, то возможно увидите, что трафик подобен горящей свече: разгорается и постепенно затухает. На пике страница может иметь несколько тысяч посещений в месяц, но может её пик, после которого трафик схлопнется, это всего лишь 8 посещений? В любом случае рано или поздно, когда CTR упадет, то она постепенно пропадет из результатов выдачи, сколько бы обратных ссылок вы на нее не добывали. Повторяю снова: работайте с поведенческими факторами.
- В Sitelinks попадают страницы, на которые больше всего кликают пользователи. Хотите, чтобы в выдаче были страницы, которые хотите вы, что ж, попробуйте поработать с поведенческими факторами. Часто клиенты спрашивают, как добавить туда страницы. А никак вручную, только обходными путями, работая с поведенческими и трафиком на нужные страницы.
- У Google есть платформа оценки качества EWOK, где собираются хорошие и плохие сигналы о странице. Что с этим он делает — до конца непонятно. В интернете бродят теории заговора, что там могут сидеть живые люди и оценивать сайты для выдачи за деньги. Я в это, конечно же, не верю, слишком высоки репутационные риски для Google, который и так платит миллионы долларов разных штрафов за меньшие проступки.
On Page
- Поддомены ранжируются не отдельно, а вместе с основными доменами. Если у вас на поддоменах не оптимизированный контент или контент, который не играет на пользу основному сайту, то удалите такие поддомены или оптимизируйте.
- Возраст домена учитывается параметром hostAge. Чем старше домен, тем больше он нравится алгоритмам. Возраст не значит, что домен стоял бесхозным несколько лет или на нем был порносайт или казино. Это должен быть нормальный старый домен, на который добывались качественные беклинки. Поэтому если будете покупать дроп, то проверяйте его историю, чтоб без блек-джека и шлюх.
- Google использует списки «белых» сайтов и отдает предпочтение им. Если вы создаете контент по ключевому запросу и «белый» сайт уже имеет такую страницу, то вам не достанется ничего. Что делать? Первое, списывать нехорошо — ладно, это была шутка. Не шутка: не конкурируйте по высокочастотным ключам с гигантами, довольствуйтесь малым, пока не выгребете из «песочницы» или вас не выкупит Forbes.
- Если выбирать между такими показателями: длина контента, CTR, плотность ключевых слов, ключевые слова, то Гугл выберет CTR — неожиданный поворот.
- EEAT не настолько страшен, как им пугали. Что делать? Прокачивайте поведенческие факторы. Гуглите «Ваш Бизнес +КС» и листайте хоть до 10 страницы, пока не кликнете на ваш сайт. Если сделать это много раз, с разных IP, то рано или поздно Google будет выводить вас по этим запросам. Но это не точно, как и все в нашей жизни.
- Метатеги очень важны и оцениваются в titlematchScore. Если у вас Description не прописан — очень плохо, как бы вы ни бились над инфографикой и не добывали обратные ссылки на такую страницу. В слитых документах нет ничего о длине заголовков, так что если ваши Title и Description будут слишком длинные, то это не повлияет на рейтинг страницы. Впрочем и обратного утверждения нет.
- Google обращает внимание на дату создания страницы. Любые махинации вплоть до смены даты в URL не приведут ни к чему хорошему. Так что если обновляете публикацию, то заложите две даты: опубликовано и обновлено.
- Google подсчитывает количество токенов и соотношение общего количества слов в тексте к количеству уникальных токенов (OriginalContentScore). Если вам сложно переосмыслить это, то вот простая трактовка: пишите сочно, используйте синонимы, метафоры, будьте неожиданны в своих сравнениях как кулич на рождественском столе. Возможно Google не научился определять действительно авторский контент, однако у него есть оценка разнообразия лексики. Найдите копирайтера, что сможет не штамповать тексты в стиле chat GPT, а писать действительно классно, чтоб что его тексты читать, что забрус кусать — одинаково вкусненько.
- Все клики пользователя анализируются с параметром chromeInTotal. Чем больше посетитель взаимодействует с контентом, тем лучше: оставляет контакты, выделяет текст. Один мой знакомый сеошник пошутил: ну что же, добавим попапов, пусть кликают. Совет сомнительный, потому что опасен фильтром за скрытый контент. Из более «белошляпных» методов — установите чат, у нас, например, Hubspot. Пользователи пишут — по chromeInTotal сайт прокачивается.
- PageRank и анкоры не настолько важны как Н1, Н2 и метатеги. Хорошие новости: оптимизировать контент на странице дешевле, чем биться на аукционах бирж за backlinks. И еще не забудьте о best practice: заголовки должны быть правильного кегля. Это если текст Arial 12, то Н2 как минимум Arial 18, а лучше больше, хотя можно пошутить, что больше не всегда лучше. Структура и стилистика страницы важнее EEAT: вот так форма победила содержание, печально.
- Гугл создал не всеобъемлющий загадочный алгоритм, а просто прописал «сигналы» для ранжирования. Хорошо, наверное, не так чтобы просто, но и far away от всеобъемлющего алгоритма.
- Гугл будет отрицать все эти пункты как он и делал на протяжении многих лет.
Как работают алгоритмы поиска
Navboost (другое название Glue) поисковые машины, работают с 2005 года и отфильтровывают клики, делят их на хорошие и плохие. Например, пользователь вводит запрос, но результаты выдачи его не устраивают и он нажимает кнопку назад. Такие запросы Гугл переводит в ранг «плохих» и не предлагает. Мои мысли вслух: сколько нужно посадить обезьянок, чтобы они, например, вводили запрос «Ваш Бизнес» и нажимали сразу же назад, чтобы по результату вашего имени не выводилось больше ничего и никогда. Или другой пример: сколько нужно обезьянок, чтобы они постоянно вводили запрос «Ваше Бизнес + специальность (страна, бизнес)» и кликали по сайту (что прославляет или очерняет бизнес), который оптимизировали под запрос, чтобы Navboost определил запрос как «хороший» и связал его с вашим сайтом, а не сайтом, наверное много раз. Ничего не напоминает? Что ж фабрики обезьянок будут процветать чтобы возвысить или понизить ваш бренд.
Выводы
Мы думали, что забыли о ПФ еще в 2014, когда перестали пользоваться поисковиком начинающимся на последнюю букву алфавита, но нит.
Content is king только если его делает сам король. Новые сайты сразу пойдут в песочницу: ранжируются страницы лучше у крупных сайтов. Даже если вашу статью напишет нобелевский лауреат, статья любого колумниста на Forbes даст ему фору.
Все равно не расстраивайтесь: дорогу осилит идущий. Сдадитесь вы — не сдадутся конкуренты.
Главный совет Ренда Фишкина: «Создайте заметный, популярный, хорошо узнаваемый бренд в своей области, за пределами поиска Google».