В этой статье мы поговорим про влияние использования машинного интеллекта на проверку различных критериев сайта, нужных для продвижения.
Поисковые системы стараются предоставлять качественные ресурсы, способные удовлетворить запросы посетителя. Для этого они пытаются оценить качество страниц ресурса глазами посетителей. Речь идет про создание искусственного интеллекта для оценки сайта. Многие прежние методы анализа и проверки уходят в небытие, на смену приходят новые, более адекватные и продвинутые способы.
Даже разработчики Google не могут грамотно и понятно объяснить, как происходит оценка, ведь теперь поисковые боты опираются на большое число факторов.
Раньше все было просто и понятно, чем активно пользовались сео-специалисты. Но уже тогда применялся принцип искусственного интеллекта для оценки определенных параметров, например, для фильтрации спама почты. Разработчикам Google приходилось постоянно вносить изменения в существующие алгоритмы, чтобы не позволять получать высокие позиции, пользуясь недоработками или пропущенными лазейками для быстрого продвижения.
Усложнение органического продвижения дали толчок развитию рекламному бизнесу с оплатой за клик (КР). Она стала основой бизнес-модели Гугл. Получается взаимосвязь, чем проще продвигать ресурс органически, тем меньше пользуются платной рекламой.
Для того, чтобы развеять сомнения про то, что поисковая система Гугл к основному виду деятельности относит продажу рекламных объявлений, можно рассмотреть работу компании за последние десятилетия. В 2016 доходы от платной рекламы составляли 89% от всех доходов.
Вполне естественно, что Google должны обеспечить надежную и качественную работу поисковой системы, которая должны быть удобной и ремонтоспособной. Под ремонтоспособной подразумевается возможность легко, и быстро вносить изменения в случае обнаружения неисправностей. Для этого имеющиеся базы кодов должны быть хорошо задокументированы (хотя бы для внутреннего использования в пределах компании), также сотрудники по связям с общественностью должны объяснять специалистам и владельцам ресурсов, как правильно создавать и продвигать ресурсы.
Google старается озвучить свои ожидания, чтобы вебмастера понимали, к чему нужно стремиться. Мэтт Каттс — руководитель команды Google Webspam, он выступал в качестве менеджера по связям.
Он часто выступает на конференциях, посвященных SEO, в качестве основного или дополнительного докладчика. Когда происходят изменения в алгоритмах поисковых ботов или происходят обновления политики и систем, Гугл объясняет оптимизаторам и заинтересованным лицам, как это отразится на ресурсах и их продвижении. Такие конференции были зрелищными. Сотни специалистов-оптимизаторов пытались отыскать возможные лазейки для получения быстрых результатов, выискивали возможные преимущества. В то время как Каттс объяснял, почему не стоит пользоваться этими лазейками и мнимыми преимуществами, как в будущем поисковая система будет реагировать на это. Вместо этого он знакомил с рекомендациями Гугл.
Теперь информация, предоставляемая Каттсом, имеет большой вес для всех, кто планирует заниматься продвижением и созданием веб-ресурсов.
Постепенно объем информации становился все меньше и меньше, Каттс стал выступать редко на конференциях, а его рекомендации стали универсальными. В 2014 Каттс ушел из Гугл, что сильно потрясло инсайдеров, сумевших зарабатывать на продаже информации, полученной на конференции от Каттса.
Вместо Каттса стали выступать неназванные представители Гугл. Почему неназванные? Дело в том, что Гугл старался снизить роль пресс-секретаря. Теперь поисковая система не давала объяснения по поводу совершенных изменений и обновлений в алгоритмах.
Запутанность и непонятность работы алгоритмов поисковых систем увеличило спрос на рекламные объявления (КР). Компания сумела существенно увеличить доходы от размещения рекламы. Была создана конференция «Learn with Google», на которой объяснялось, как увеличить доходность от КР.
Кристин Шешингер в своей статье упрекнула поисковую систему в нехватке информации про основное алгоритмическое обновление, написав, что временный представитель Гэри Иллис разочаровал общественность, дав легкомысленное объяснение. Что происходило?
Поисковая система Гугл экспериментировала с разработкой методов, чтобы научить машину распознавать качество страниц ресурсов со стороны обычного пользователя. Политика Гугл всегда была направлена на автоматизацию процессов, это относилось и к оценке и проверке для выдачи поискового рейтинга.
Быстрота перехода Google на машинный интеллект застала многих врасплох, ведь предыдущее обновление алгоритма проводилось на протяжении многих лет.
Теперь вопрос состоял в том, существует ли ряд правил, которым следует машинный интеллект при проверке?
Большая часть существующих алгоритмов поисковой системы теперь контролировались постоянно развивающимся и обновляющимся машинным интеллектом, который часто менял ключевые критерии при оценке. Маркус Торбер, один из руководителей SearchMetrics, заявил, что вполне возможно, что даже инженеры Гугл не знают исходных кодов сложного алгоритма.
В начале писалось, что основной источник дохода Гугл — это продажа рекламных объявлений, она приносит 90% общих доходов.
Возникает ряд интересных вопросов. Предполагалось ли заранее, что переход на машинный интеллект создаст сложно объяснимые условия проверки? Можно ли считать совпадением уход Каттса в 2014? Неужели Гугл не хочет более объяснять разработчикам нюансы продвижения, или просто не может этого сделать?
В 2017 генеральный директор С. Пичай публично прокоментровал переход на искусственный интеллект. Боб Гриффин, гендиректор Ayasdi, опубликовал блог, в котором написал, что выступление Пичая дало понять, что Гугл не собирается отказываться от ответственности, прикрываясь оправданиями, что определенное действие совершено машинным разумом.
Грифин пишет, что важно понимать, почему искусственный интеллект совершает определенные действия. Нужно обеспечить прозрачность многих процессов, например, на какой алгоритм опирается поисковая система, какие критерии учитываются и т.д. Любое действие должно быть обосновано, нельзя прикрываться непредсказуемостью поведения машинного разума.
Но на тот момент разработчики Гугл, как создалось впечатление, не могли объяснить, как происходит проверка и оценка страниц ресурсов. Это стало причиной недовольства, поэтому в конце 2017 Гугл наняли Д. Салливана с заданием восстановить имидж, добавив прозрачность процессам оценки и проверки.
Почему так долго пришлось ждать этой «прозрачности»? Возможно, переход на искусственный интеллект был лишь прикрытием истинных целей компании Гугл?
Несмотря на появление Салливана, основной доход Гугл давал понять, что процесс возвращения прозрачности не был первым по приоритетности. Они смогли решить одну из сложнейших технических задач, создав искусственный разум, теперь могли легко выявить области и критерии, чтобы помочь оптимизаторам, но это не было целью компании. Многие профессионалы считают, что по-настоящему прозрачные отношения с Гугл закончились и уже не вернутся вновь.
Многие эксперты плохо понимают обновленную систему поиска Гугл. Зачем это нужно?
Как меняется машинный интеллект? Многие ведущие специалисты считают, что он не сильно изменился. Для эффективной оптимизации стоит придерживаться прежних сео-стратегий, опираясь на прежние критерии качества.
Профессиональные оптимизаторы не стали долго думать над вопросом, как работает машинный разум, посчитав это скорее маркетинговым ходом Гугл, а не реальным появлением разумного инструмента оценки и проверки.
Вполне логично, что раз произошло серьезное обновление или смена технологий, значит и будут перемены и в охранной системе. Многие люди, разбирающиеся в этом, превращают сео-оптимизацию в основной источник доходов.
Конкурирующие компании занимаются разработкой алгоритмов, подходов и инструментов, пытаясь сымитировать действия и поведение машины, предугадывая действия Google RankBrain.
Есть несколько факторов, влияющих на прежнюю популярность разработок систем моделирования поведения ИИ. Одна из них — постоянные изменения поисковых алгоритмов. Это не слишком хорошо для сео-методов, многие из которых основаны на заранее заложенных правилах.
Второй причиной является возможность отслеживания поведения различных поисковых систем. Подобные модели способны выявлять, например, причины изменений вашего поискового рейтинга. Также они помогают проверять целесообразность внесенных изменений, вы сможете протестировать результат. Это позволит определить, изменения принесут пользу или вред.
Допустим, вы обратили внимание, что ваш поисковый рейтинг значительно снизился по выбранному поисковому запросу. Проверив страницы через специальные алгоритмы модели, можно выявить важные параметры, которые могли повлиять на ваши рейтинговые позиции, например, вы сможете определить, что поисковая система больше внимания уделила заголовкам, обратным ссылкам, структуре ресурса и т.д.
Теперь СЕО стал более техническим по сравнению с прежними временами. Раньше достаточно было заниматься ключевыми словами, метатегами, обратными ссылками и внешними ссылками, расположенными в любом месте страницы. Теперь алгоритмы стали продвинутыми, поисковые боты научились оценивать качество контента дизайна, приблизившись к реалистичной оценке. Это значит, что оптимизаторы должны адаптироваться к новым условиям, нужно иметь понимание, как работает ИИ, чтобы правильно оптимизировать веб-ресурсы.
Появление Салливана стало причиной возникновения вопроса касательно поведения Гугл. Будет ли Гугл объяснять реальное поведение алгоритмов машинного интеллекта или предоставлять лишь общую информацию, опасаясь сократить уровень доходов от платных объявлений?
Будущее, несомненно, принесет множество интересного для SEO.