14 июля 2024
Сео статьи
Поисковая оптимизация (SEO) — это процесс оптимизации факторов на странице и вне ее, которые влияют на то, насколько высоко ранжируется веб-страница по определенному поисковому запросу. Это многогранный процесс, который включает оптимизацию скорости загрузки страницы, создание стратегии построения ссылок, использование инструментов SEO , а также изучение того, как реверсировать ИИ Google с помощью вычислительного мышления .
Вычислительное мышление — это продвинутый тип анализа и техники решения проблем, который используют программисты при написании кода и алгоритмов. Вычислительные мыслители будут искать истину, разбивая проблему на части и анализируя ее с помощью мышления на основе первых принципов.
Поскольку Google никому не раскрывает свой секретный соус, мы положимся на вычислительное мышление. Мы рассмотрим некоторые поворотные моменты в истории Google, которые сформировали используемые алгоритмы, и узнаем, почему это важно.
Начнем с книги, опубликованной в 2012 году под названием « Как создать разум: раскрыт секрет человеческой мысли» известного футуриста и изобретателя Рэя Курцвейла. Эта книга препарировала человеческий мозг и разобрала, как он работает. Мы узнаем с самого начала, как мозг тренируется, используя распознавание образов, чтобы стать предсказательной машиной, всегда работающей над предсказанием будущего, даже предсказывающей следующее слово.
Как люди распознают закономерности в повседневной жизни? Как эти связи формируются в мозге? Книга начинается с понимания иерархического мышления, то есть понимания структуры, которая состоит из разнообразных элементов, организованных в закономерность, затем эта закономерность представляет собой символ, такой как буква или символ, а затем это далее организуется в более сложную закономерность, такую как слово, и в конечном итоге предложение.
В конечном итоге эти закономерности формируют идеи, а эти идеи преобразуются в продукты, за создание которых отвечают люди.
Путем имитации человеческого мозга открывается путь к созданию продвинутого искусственного интеллекта, превосходящего возможности нейронных сетей, существовавших на момент публикации.
Книга была планом создания ИИ, который может масштабироваться путем вакуумирования данных мира и использовать свою многослойную обработку распознавания образов для анализа текста, изображений, аудио и видео. Система, оптимизированная для масштабирования благодаря преимуществам облака и его возможностям параллельной обработки. Другими словами, не будет никакого максимума на входе или выходе данных.
Эта книга была настолько важной, что вскоре после ее публикации автор Рэй Курцвейл был нанят Google на должность директора по инжинирингу, сосредоточенного на машинном обучении и обработке языка. Роль, которая идеально соответствовала книге, которую он написал.
Невозможно отрицать, насколько эта книга повлияла на будущее Google и на то, как они ранжируют веб-сайты. Эта книга об ИИ должна быть обязательной для прочтения для каждого, кто хочет стать экспертом по SEO-продвижению сайтов.
Запущенный в 2010 году, DeepMind был новым горячим стартапом, использующим революционный новый тип алгоритма ИИ, который покорял мир, он назывался обучением с подкреплением. DeepMind лучше всего описал его так:
Объединив глубокое обучение с обучением с подкреплением, мы получили систему глубокого обучения с подкреплением . К 2013 году DeepMind использовала эти алгоритмы, чтобы одерживать победы над игроками-людьми в играх Atari 2600 – и это было достигнуто путем имитации человеческого мозга и того, как он учится посредством тренировок и повторений.
Подобно тому, как человек учится путем повторения, будь то удары по мячу или игра в тетрис, ИИ также будет учиться. Нейронная сеть ИИ отслеживает производительность и постепенно самосовершенствуется, что приводит к более сильному выбору ходов в следующей итерации.
После появления отрасль искусственного интеллекта стала свидетелем последовательных прорывов, подобных которым не было с 11 мая 1997 года, когда гроссмейстер Гарри Каспаров проиграл первую партию матча из шести партий Deep Blue — шахматному компьютеру, разработанному учеными IBM. В 2015 году DeepMind усовершенствовал алгоритм, чтобы протестировать его на наборе из 49 игр Atari, и машина превзошла человека в 23 из них.
Это было только начало, позже в 2015 году DeepMind начал фокусироваться на AlphaGo , программе, заявленной целью которой было победить профессионального чемпиона мира по го. Древняя игра го, впервые появившаяся в Китае около 4000 лет назад, считается самой сложной игрой в истории человечества с ее потенциальными 10 360 возможными ходами.
DeepMind использовал контролируемое обучение для обучения системы AlphaGo, обучаясь у игроков-людей. Вскоре после этого DeepMind попал в заголовки после того, как AlphaGo победил Ли Седоля , чемпиона мира, в матче из пяти игр в марте 2016 года.
В то же время мир SEO - оптимизации сайтов был крайне сосредоточен на PageRank, основе Google. Все началось в 1995 году, когда Ларри Пейдж и Сергей Брин были аспирантами Стэнфордского университета. Дуэт начал сотрудничать в новом исследовательском проекте под названием « BackRub ». Целью было ранжирование веб-страниц в меру важности путем преобразования их данных обратных ссылок. Обратная ссылка — это просто любая ссылка с одной страницы на другую, похожая на эту ссылку .
Алгоритм позже был переименован в PageRank, названный в честь термина «веб-страница» и соучредителя Ларри Пейджа. У Ларри Пейджа и Сергея Брина была амбициозная цель — создать поисковую систему, которая могла бы управлять всем интернетом исключительно за счет обратных ссылок. И это сработало.
Профессионалы SEO сразу поняли основы того, как Google вычисляет рейтинг качества веб-страницы с помощью PageRank. Некоторые опытные предприниматели в области черного SEO пошли еще дальше, поняв, что для масштабирования контента может иметь смысл покупать ссылки, а не ждать, пока они будут получены органически.
Новая экономика возникла вокруг обратных ссылок. Владельцы сайтов, которым нужно было повлиять на рейтинг поисковых систем, покупали ссылки, а взамен отчаянно желающие монетизировать сайты продавали им ссылки, и это была целая эпоха.
Веб-сайты, покупавшие ссылки, зачастую в одночасье вторгались в топы Яндекс и Google, опережая по рейтингу известные бренды ( я помню те времена)).
Ранжирование с использованием этого метода работало очень хорошо в течение долгого времени – пока оно не перестало работать, вероятно, примерно в то же время, когда включилось машинное обучение и решило основную проблему. С введением глубокого обучения с подкреплением PageRank стал бы переменной ранжирования, а не доминирующим фактором.
К настоящему времени сообщество SEO разделилось по вопросу покупки ссылок как стратегии. Я лично считаю, что покупка ссылок дает не самые оптимальные результаты, и что лучшие методы получения обратных ссылок основаны на переменных, которые являются отраслевыми.Но, когда речь идет о новом, совсем молодом сайте- от этого никуда не уйти.
Известным брендам никогда не приходилось беспокоиться об источниках ссылок, поскольку у них были преимущества времени, работающего на них. Чем старше веб-сайт, тем больше времени у него было для сбора высококачественных обратных ссылок. Другими словами, рейтинг поисковой системы сильно зависел (и сейчас зависит) от возраста веб-сайта, если вы рассчитываете с использованием метрики время = обратные ссылки .
Например, крупные СМИ естественным образом получали обратные ссылки на новостную статью из-за своего бренда, доверия к нему и потому, что изначально он занимал высокие позиции в рейтинге. Поэтому естественным образом они получали больше обратных ссылок от людей, изучающих статью и ссылающихся на первый найденный ими результат поиска.
Это означает, что веб-страницы с более высоким рейтингом органически получали больше обратных ссылок. К сожалению, это означало, что новые веб-сайты часто были вынуждены злоупотреблять алгоритмом обратных ссылок, обращаясь к рынку обратных ссылок.
В начале 2000-х годов покупка обратных ссылок работала на удивление хорошо, и это был простой процесс. Покупатели ссылок приобретали ссылки с авторитетных сайтов, часто ссылки в нижнем колонтитуле сайта или, возможно, на основе статей (часто замаскированных под гостевой пост), и продавцы, отчаянно желавшие монетизировать свои сайты, были рады угодить им — к сожалению, часто в ущерб качеству.
В конце концов, кадровый резерв инженеров машинного обучения Google понял, что кодирование результатов поисковой системы вручную бесполезно, и большая часть PageRank была написана вручную. Вместо этого они поняли, что ИИ в конечном итоге станет ответственным за полный расчет рейтингов с минимальным человеческим вмешательством.
Чтобы оставаться конкурентоспособной, Google использует все имеющиеся в ее арсенале инструменты, в том числе и глубокое обучение с подкреплением — самый продвинутый тип алгоритма машинного обучения в мире.
Эта система, наложенная на приобретение MetaWeb компанией Google, стала переломным моментом. Причина, по которой приобретение MetaWeb в 2010 году было столь важным, заключается в том, что оно снизило вес, который Google придавал ключевым словам. Контекст внезапно стал важным, это было достигнуто с помощью методологии категоризации, называемой «сущности». Как описала Fast Company :
Как только Metaweb выяснит, на какую сущность вы ссылаетесь, он может предоставить набор результатов. Он даже может объединять сущности для более сложных поисков — «актрисы старше 40» могут быть одной сущностью, «актрисы, живущие в Нью-Йорке» могут быть другой, а «актрисы, у которых сейчас идет фильм» могут быть еще одной.
Эта технология была включена в крупное обновление алгоритма под названием RankBrain , которое было запущено весной 2015 года. RankBrain фокусировался на понимании контекста, а не был основан исключительно на ключевых словах, и RankBrain также учитывал контексты окружающей среды (например, местоположение пользователя) и экстраполировал значение там, где его раньше не было. Это было важное обновление, особенно для мобильных пользователей.
Теперь, когда мы понимаем, как Google использует эти технологии, давайте применим вычислительную теорию, чтобы поразмышлять о том, как это делается.
Глубокое обучение — наиболее часто используемый тип машинного обучения. Google просто не может не использовать этот алгоритм.
На глубокое обучение существенное влияние оказывает то, как работает человеческий мозг, и оно пытается отразить поведение мозга в том, как тот использует распознавание образов для идентификации и категоризации объектов.
Например, если вы видите букву a , ваш мозг автоматически распознает линии и формы, чтобы затем идентифицировать ее как букву a . То же самое применяется к другим буквам , ваш мозг автоматически пытается предсказать будущее, придумывая потенциальные слова, такие как app или apple . Другие шаблоны могут включать цифры, дорожные знаки или идентификацию любимого человека в переполненном аэропорту.
Взаимосвязи в системе глубокого обучения можно сравнить с тем, как работает человеческий мозг, соединяющий нейроны и синапсы.
Глубокое обучение — это в конечном счете термин, данный архитектурам машинного обучения, которые объединяют многослойные персептроны вместе, так что есть не один скрытый слой, а много скрытых слоев. Чем «глубже» глубокая нейронная сеть, тем более сложные шаблоны она может изучить.
Полностью связанные сети можно комбинировать с другими функциями машинного обучения для создания различных архитектур глубокого обучения.
Google просматривает веб-сайты мира, следуя гиперссылкам (представьте себе нейроны), которые соединяют веб-сайты друг с другом. Это была изначальная методология, которую Google использовал с самого начала, и она используется до сих пор. После индексации веб-сайтов различные типы ИИ используются для анализа этого сокровища данных.
Система Google маркирует веб-страницы в соответствии с различными внутренними метриками, с небольшим человеческим вкладом или вмешательством. Примером вмешательства может быть ручное удаление определенного URL из-за запроса на удаление DMCA .
Инженеры Google известны тем, что разочаровывают участников конференций по SEO-продвижению , и это потому, что руководители Google никогда не могут правильно объяснить, как работает Google. Когда задают вопросы о том, почему определенные веб-сайты не ранжируются, почти всегда следует один и тот же плохо сформулированный ответ.
Ответ настолько частый, что часто участники заранее заявляют, что они месяцами или даже годами подряд создавали хороший контент, но не получили никаких положительных результатов.
Как и ожидалось, владельцам веб-сайтов поручено сосредоточиться на создании ценного контента — важного компонента, но далеко не всеобъемлющего.
Отсутствие ответа объясняется тем, что руководители не способны правильно ответить на вопрос. Алгоритм Google работает в черном ящике. Есть вход, а затем выход — и именно так работает глубокое обучение.
Давайте теперь вернемся к штрафу за снижение рейтинга, который негативно влияет на миллионы веб-сайтов, зачастую без ведома их владельцев.
Google не всегда прозрачен, PageSpeed Insights — исключение. Веб-сайты, которые не пройдут этот тест скорости, будут отправлены в штрафной бокс за медленную загрузку — особенно если это затронет мобильных пользователей.
Подозревается, что в какой-то момент процесса есть дерево решений, которое анализирует быстрые веб-сайты, в отличие от медленно загружающихся (PageSpeed Insights не прошел). Дерево решений по сути является алгоритмическим подходом, который разделяет набор данных на отдельные точки данных на основе различных критериев. Критерии могут негативно влиять на то, как высоко ранжируется страница для мобильных пользователей по сравнению с пользователями настольных компьютеров.
Гипотетически штраф может быть применен к естественному рейтингу. Например, веб-сайт, который без штрафа был бы на 5-м месте, может иметь -20, -50 или какую-то другую неизвестную переменную, которая снизит рейтинг до #25, #55 или другого числа, выбранного ИИ.
В будущем мы можем увидеть конец PageSpeed Insights, когда Google станет более уверенным в своем ИИ. Это текущее вмешательство Google в скорость опасно, поскольку оно может потенциально исключить результаты, которые были бы оптимальными, и дискриминирует менее технически подкованных.
Поэтому каждый, кто управляет малым бизнесом, должен иметь опыт хотя бы минимальной успешной диагностики и устранения проблем с тестом скорости. Одним из простых решений было бы для Google просто выпустить плагин оптимизации скорости для пользователей WordPress, поскольку WordPress поддерживает 43% интернета.
К сожалению, все усилия SEO напрасны, если сайт не проходит тест PageSpeed Insights от Google . Ставки здесь — не что иное, как исчезновение сайта из выдачи Google.
Как пройти этот тест, мы постараемся рассказать в другой статье, но как минимум вам следует проверить, проходит ли ваш сайт этот тест .
Еще одна важная техническая метрика, о которой стоит беспокоиться, — это протокол безопасности SSL (Secure Sockets Layer). Он изменяет URL домена с http на https и обеспечивает безопасную передачу данных. Любой веб-сайт, на котором не включен SSL, будет оштрафован. Хотя из этого правила есть некоторые исключения, сильнее всего пострадают веб-сайты электронной коммерции и финансов.
Недорогие хостинг-провайдеры взимают ежегодную плату за внедрение SSL, в то время как хорошие хостинг-провайдеры, такие как Siteground, выдают SSL-сертификаты бесплатно и автоматически интегрируют их.
Другим важным элементом на сайте является Meta Title и Meta description. Эти поля контента имеют нестандартный порядок важности, который может внести такой же вклад в успех или провал страницы, как и все ее содержимое.
Это потому, что Google имеет высокую вероятность выбора Meta Title и Meta description для показа в результатах поиска. И вот почему важно заполнять поля Meta Title и Meta Description как можно более тщательно.
Альтернативой является то, что Google может игнорировать мета-заголовок и мета-описание, чтобы вместо этого автоматически генерировать данные, которые, по его прогнозам, приведут к большему количеству кликов. Если Google плохо предсказывает, какой заголовок автоматически генерировать, это будет способствовать меньшему количеству кликов со стороны поисковиков и, следовательно, потере рейтинга в поисковой системе.
Если Google считает, что включенное метаописание оптимизировано для получения кликов, он покажет его в результатах поиска. Если это не так, Google берет случайный фрагмент текста с веб-сайта. Часто Google выбирает лучший текст на странице, проблема в том, что это лотерейная система, и Google постоянно плохо выбирает, какое описание выбрать.
Конечно, если вы считаете, что контент на вашей странице действительно хорош, иногда имеет смысл позволить Google выбрать оптимизированное метаописание, которое лучше всего соответствует запросу пользователя.
В это же время миллиарды людей нажимают на лучшие результаты поиска — это человек в петле , последний механизм обратной связи Google — и здесь вступает в действие обучение с подкреплением.
Обучение с подкреплением — это метод машинного обучения, который включает в себя обучение агента ИИ посредством повторения действий и связанных с ними вознаграждений. Агент обучения с подкреплением экспериментирует в среде, совершая действия и получая вознаграждение за совершение правильных действий. Со временем агент учится совершать действия, которые максимизируют его вознаграждение.
Вознаграждение может быть основано на простом расчете, который подсчитывает количество времени, проведенного на рекомендуемой странице.
Если объединить эту методологию с подпрограммой «человек-в-контуре», то это будет очень похоже на существующие рекомендательные системы, которые контролируют все аспекты нашей цифровой жизни, такие как YouTube, Netflix, Amazon Prime. И если это похоже на то, как должна работать поисковая система, вы правы.
Маховик Google совершенствуется с каждым поиском, люди обучают ИИ, выбирая лучший результат, который наилучшим образом отвечает на их запрос и аналогичные запросы миллионов других пользователей.
Агент подкрепляющего обучения постоянно работает над самосовершенствованием, подкрепляя только самые позитивные взаимодействия между поиском и полученными результатами поиска.
Google измеряет время, необходимое пользователю для сканирования страницы результатов, URL, по которому он нажимает, и измеряет время, проведенное на посещенном веб-сайте, и регистрирует повторный клик. Затем эти данные собираются и сравниваются для каждого веб-сайта, который предлагает похожее соответствие данных или пользовательский опыт.
Веб-сайт с низким показателем удержания (время, проведенное на сайте) затем получает отрицательное значение от системы обучения с подкреплением, а другие конкурирующие веб-сайты тестируются для улучшения предлагаемых рейтингов. Google беспристрастен, предполагая, что нет ручного вмешательства, Google в конечном итоге предоставляет желаемую страницу результатов поиска.
Пользователи — это человек в контуре, который предоставляет Google бесплатные данные и становится конечным компонентом системы глубокого обучения с подкреплением. В обмен на эту услугу Google предлагает конечному пользователю возможность нажать на рекламу.
Реклама, не приносящая доход, выступает в качестве вторичного фактора ранжирования, предоставляя больше данных о том, что побуждает пользователя кликнуть по ней.
Google по сути изучает, чего хочет пользователь. Это можно примерно сравнить с рекомендательной системой видеостримингового сервиса. В этом случае рекомендательная система будет снабжать пользователя контентом, который соответствует его интересам. Например, пользователь, который обычно любит смотреть романтические комедии, может наслаждаться некоторыми пародиями, если у него одни и те же комики.
Если мы продолжим вычислительное мышление, то можем предположить, что Google обучился выдавать наилучшие результаты, и это часто достигается путем обобщения и удовлетворения человеческих предубеждений. Фактически, ИИ Google не смог бы оптимизировать результаты, которые учитывают эти предубеждения, если бы он это делал, результаты были бы неоптимальными.
Другими словами, волшебной формулы не существует, но есть некоторые передовые методы.
Обязанность специалиста по поисковой оптимизации — распознавать предубеждения, которые Google ищет и которые характерны для его отрасли, и подпитывать эти предубеждения. Например, кто-то ищет результаты опросов по выборам, не указывая дату, скорее всего, ищет самые последние результаты — это предубеждение новизны. Кто-то, кто ищет рецепт, скорее всего, не нуждается в самой последней странице и может на самом деле предпочесть рецепт, который выдержал испытание временем.
Ответственность специалиста по SEO заключается в том, чтобы предлагать посетителям результаты, которые они ищут. Это наиболее устойчивый способ ранжирования в Google.
Владельцы веб-сайтов должны отказаться от таргетинга на определенное ключевое слово, ожидая, что они смогут предоставить конечному пользователю все, что он захочет. Результат поиска должен точно соответствовать потребностям пользователя.
Что такое предвзятость? Это может быть доменное имя, которое выглядит высокоавторитетным, другими словами, соответствует ли доменное имя рынку, на котором вы работаете?
Наличие доменного имени со словом Russia в нем может отпугнуть пользователей из США от нажатия на URL из-за националистического предубеждения доверия результатам, которые исходят из страны проживания пользователя. Наличие домена из одного слова также может создать иллюзию авторитетности.
Самое важное смещение — это то, что пользователь хочет получить в соответствии со своим поисковым запросом? Это часто задаваемые вопросы, список 10 лучших, запись в блоге? На это нужно ответить, и ответ легко найти. Вам просто нужно проанализировать конкуренцию, выполнив поиск Google на вашем целевом рынке.
Сравните это с Black Hat SEO — агрессивным методом ранжирования веб-сайтов, который использует коварные методы спама, включая покупку обратных ссылок, фальсификацию обратных ссылок, взлом веб-сайтов, автоматическую генерацию социальных закладок в больших масштабах и другие темные методологии, которые применяются с помощью сети инструментов черного поиска.
Инструменты, которые часто перепрофилируются и перепродаются на различных форумах поискового маркетинга, продукты с почти нулевой ценностью и малыми шансами на успех. В настоящее время эти инструменты позволяют продавцам стать богатыми, в то время как они предлагают минимальную ценность для конечного пользователя.
Вот почему я никогда сам не использую и другим рекомендую отказаться от Black Hat. Сосредоточьте свое SEO на рассмотрении его через призму машинного обучения.
Важно понимать, что каждый раз, когда кто-то пропускает результат поиска, чтобы нажать на результат, скрытый под ним, это человек в контуре, сотрудничающий с системой глубокого обучения с подкреплением. Человек помогает ИИ в самосовершенствовании, становясь бесконечно лучше с течением времени.
Это алгоритм машинного обучения, который был обучен большим количеством пользователей, чем любая другая система в истории человечества.
Google обрабатывает в среднем 3,8 миллиона поисковых запросов в минуту по всему миру. Это составляет 228 миллионов поисковых запросов в час, 5,6 миллиарда поисковых запросов в день . Это очень много данных, и именно поэтому глупо пытаться заниматься черным SEO. Предполагать, что ИИ Google останется на месте, глупо, система использует Закон ускорения отдачи для экспоненциального самосовершенствования.
ИИ от Google становится настолько мощным, что вполне возможно, что в конечном итоге он станет первым ИИ, достигшим уровня искусственного интеллекта общего назначения (AGI). AGI — это интеллект, который способен использовать трансферное обучение для освоения одной области, чтобы затем применять этот изученный интеллект в нескольких областях. Хотя может быть интересно исследовать будущие усилия Google в области AGI, следует понимать, что как только процесс запущен, его трудно остановить. Конечно, это предположения о будущем, поскольку Google в настоящее время является типом узкого ИИ, но это тема для другой статьи.
Если мы примем, что ИИ Google будет постоянно самосовершенствоваться, то у нас не останется выбора, кроме как отказаться от попыток перехитрить Google. Вместо этого сосредоточьтесь на оптимизации веб-сайта, чтобы оптимально предоставить Google именно то, что он ищет.
Как описано, это включает включение SSL, оптимизацию скорости загрузки страницы и оптимизацию Meta Title и Meta Description. Чтобы оптимизировать эти поля, Meta Title и Meta Description должны быть сравнены с конкурирующими веб-сайтами – Определите выигрышные элементы, которые приводят к высокому показателю кликов.
Если вы оптимизировали кликабельность, то следующим этапом станет создание лучшей целевой страницы. Цель — целевая страница, которая оптимизирует ценность пользователя настолько, что среднее время, проведенное на странице, превзойдет показатели аналогичных конкурентов, борющихся за верхние позиции в результатах поиска.
Только предлагая наилучший пользовательский опыт, веб-страница может повысить свой рейтинг.
На данный момент мы определили следующие показатели как наиболее важные:
Целевая страница — самый сложный элемент, поскольку вы соревнуетесь с миром. Целевая страница должна быстро загружаться и должна обслуживать все, что ожидается, а затем удивлять пользователя еще большим.
Было бы легко заполнить еще 2000 слов, описывая другие технологии ИИ, которые использует Google, а также углубиться в кроличью нору SEO. Цель здесь — переориентировать внимание на самые важные метрики.
Специалисты по SEO настолько сосредоточены на игре с системой, что забывают, что в конечном итоге самый важный элемент SEO — предоставить пользователям как можно больше ценности.
Один из способов добиться этого — никогда не позволять важному контенту устаревать. Если через месяц я придумаю важный вклад, он будет добавлен в эту статью. Затем Google может определить, насколько свеж контент, сопоставив его с историей предоставления ценности страницы.
Если вы все еще беспокоитесь о получении обратных ссылок, решение простое. Уважайте время своих посетителей и давайте им ценность. Обратные ссылки придут сами собой, поскольку пользователи найдут ценность в распространении вашего контента.
Вычислительное мышление — это продвинутый тип анализа и техники решения проблем, который используют программисты при написании кода и алгоритмов. Вычислительные мыслители будут искать истину, разбивая проблему на части и анализируя ее с помощью мышления на основе первых принципов.
Поскольку Google никому не раскрывает свой секретный соус, мы положимся на вычислительное мышление. Мы рассмотрим некоторые поворотные моменты в истории Google, которые сформировали используемые алгоритмы, и узнаем, почему это важно.
Как создать разум
Начнем с книги, опубликованной в 2012 году под названием « Как создать разум: раскрыт секрет человеческой мысли» известного футуриста и изобретателя Рэя Курцвейла. Эта книга препарировала человеческий мозг и разобрала, как он работает. Мы узнаем с самого начала, как мозг тренируется, используя распознавание образов, чтобы стать предсказательной машиной, всегда работающей над предсказанием будущего, даже предсказывающей следующее слово.
Как люди распознают закономерности в повседневной жизни? Как эти связи формируются в мозге? Книга начинается с понимания иерархического мышления, то есть понимания структуры, которая состоит из разнообразных элементов, организованных в закономерность, затем эта закономерность представляет собой символ, такой как буква или символ, а затем это далее организуется в более сложную закономерность, такую как слово, и в конечном итоге предложение.
В конечном итоге эти закономерности формируют идеи, а эти идеи преобразуются в продукты, за создание которых отвечают люди.
Путем имитации человеческого мозга открывается путь к созданию продвинутого искусственного интеллекта, превосходящего возможности нейронных сетей, существовавших на момент публикации.
Книга была планом создания ИИ, который может масштабироваться путем вакуумирования данных мира и использовать свою многослойную обработку распознавания образов для анализа текста, изображений, аудио и видео. Система, оптимизированная для масштабирования благодаря преимуществам облака и его возможностям параллельной обработки. Другими словами, не будет никакого максимума на входе или выходе данных.
Эта книга была настолько важной, что вскоре после ее публикации автор Рэй Курцвейл был нанят Google на должность директора по инжинирингу, сосредоточенного на машинном обучении и обработке языка. Роль, которая идеально соответствовала книге, которую он написал.
Невозможно отрицать, насколько эта книга повлияла на будущее Google и на то, как они ранжируют веб-сайты. Эта книга об ИИ должна быть обязательной для прочтения для каждого, кто хочет стать экспертом по SEO-продвижению сайтов.
Глубокий Разум
Запущенный в 2010 году, DeepMind был новым горячим стартапом, использующим революционный новый тип алгоритма ИИ, который покорял мир, он назывался обучением с подкреплением. DeepMind лучше всего описал его так:
«Мы представляем первую модель глубокого обучения, которая успешно изучает политики управления непосредственно из многомерного сенсорного ввода с использованием обучения с подкреплением. Модель представляет собой сверточную нейронную сеть, обученную с помощью варианта Q-обучения, чьи входные данные — это необработанные пиксели, а выходные данные — это функция ценности, оценивающая будущие вознаграждения».
Объединив глубокое обучение с обучением с подкреплением, мы получили систему глубокого обучения с подкреплением . К 2013 году DeepMind использовала эти алгоритмы, чтобы одерживать победы над игроками-людьми в играх Atari 2600 – и это было достигнуто путем имитации человеческого мозга и того, как он учится посредством тренировок и повторений.
Подобно тому, как человек учится путем повторения, будь то удары по мячу или игра в тетрис, ИИ также будет учиться. Нейронная сеть ИИ отслеживает производительность и постепенно самосовершенствуется, что приводит к более сильному выбору ходов в следующей итерации.
После появления отрасль искусственного интеллекта стала свидетелем последовательных прорывов, подобных которым не было с 11 мая 1997 года, когда гроссмейстер Гарри Каспаров проиграл первую партию матча из шести партий Deep Blue — шахматному компьютеру, разработанному учеными IBM. В 2015 году DeepMind усовершенствовал алгоритм, чтобы протестировать его на наборе из 49 игр Atari, и машина превзошла человека в 23 из них.
Это было только начало, позже в 2015 году DeepMind начал фокусироваться на AlphaGo , программе, заявленной целью которой было победить профессионального чемпиона мира по го. Древняя игра го, впервые появившаяся в Китае около 4000 лет назад, считается самой сложной игрой в истории человечества с ее потенциальными 10 360 возможными ходами.
DeepMind использовал контролируемое обучение для обучения системы AlphaGo, обучаясь у игроков-людей. Вскоре после этого DeepMind попал в заголовки после того, как AlphaGo победил Ли Седоля , чемпиона мира, в матче из пяти игр в марте 2016 года.
В то же время мир SEO - оптимизации сайтов был крайне сосредоточен на PageRank, основе Google. Все началось в 1995 году, когда Ларри Пейдж и Сергей Брин были аспирантами Стэнфордского университета. Дуэт начал сотрудничать в новом исследовательском проекте под названием « BackRub ». Целью было ранжирование веб-страниц в меру важности путем преобразования их данных обратных ссылок. Обратная ссылка — это просто любая ссылка с одной страницы на другую, похожая на эту ссылку .
Алгоритм позже был переименован в PageRank, названный в честь термина «веб-страница» и соучредителя Ларри Пейджа. У Ларри Пейджа и Сергея Брина была амбициозная цель — создать поисковую систему, которая могла бы управлять всем интернетом исключительно за счет обратных ссылок. И это сработало.
PageRank доминирует в заголовках
Профессионалы SEO сразу поняли основы того, как Google вычисляет рейтинг качества веб-страницы с помощью PageRank. Некоторые опытные предприниматели в области черного SEO пошли еще дальше, поняв, что для масштабирования контента может иметь смысл покупать ссылки, а не ждать, пока они будут получены органически.
Новая экономика возникла вокруг обратных ссылок. Владельцы сайтов, которым нужно было повлиять на рейтинг поисковых систем, покупали ссылки, а взамен отчаянно желающие монетизировать сайты продавали им ссылки, и это была целая эпоха.
Веб-сайты, покупавшие ссылки, зачастую в одночасье вторгались в топы Яндекс и Google, опережая по рейтингу известные бренды ( я помню те времена)).
Ранжирование с использованием этого метода работало очень хорошо в течение долгого времени – пока оно не перестало работать, вероятно, примерно в то же время, когда включилось машинное обучение и решило основную проблему. С введением глубокого обучения с подкреплением PageRank стал бы переменной ранжирования, а не доминирующим фактором.
К настоящему времени сообщество SEO разделилось по вопросу покупки ссылок как стратегии. Я лично считаю, что покупка ссылок дает не самые оптимальные результаты, и что лучшие методы получения обратных ссылок основаны на переменных, которые являются отраслевыми.Но, когда речь идет о новом, совсем молодом сайте- от этого никуда не уйти.
Известным брендам никогда не приходилось беспокоиться об источниках ссылок, поскольку у них были преимущества времени, работающего на них. Чем старше веб-сайт, тем больше времени у него было для сбора высококачественных обратных ссылок. Другими словами, рейтинг поисковой системы сильно зависел (и сейчас зависит) от возраста веб-сайта, если вы рассчитываете с использованием метрики время = обратные ссылки .
Например, крупные СМИ естественным образом получали обратные ссылки на новостную статью из-за своего бренда, доверия к нему и потому, что изначально он занимал высокие позиции в рейтинге. Поэтому естественным образом они получали больше обратных ссылок от людей, изучающих статью и ссылающихся на первый найденный ими результат поиска.
Это означает, что веб-страницы с более высоким рейтингом органически получали больше обратных ссылок. К сожалению, это означало, что новые веб-сайты часто были вынуждены злоупотреблять алгоритмом обратных ссылок, обращаясь к рынку обратных ссылок.
В начале 2000-х годов покупка обратных ссылок работала на удивление хорошо, и это был простой процесс. Покупатели ссылок приобретали ссылки с авторитетных сайтов, часто ссылки в нижнем колонтитуле сайта или, возможно, на основе статей (часто замаскированных под гостевой пост), и продавцы, отчаянно желавшие монетизировать свои сайты, были рады угодить им — к сожалению, часто в ущерб качеству.
В конце концов, кадровый резерв инженеров машинного обучения Google понял, что кодирование результатов поисковой системы вручную бесполезно, и большая часть PageRank была написана вручную. Вместо этого они поняли, что ИИ в конечном итоге станет ответственным за полный расчет рейтингов с минимальным человеческим вмешательством.
Чтобы оставаться конкурентоспособной, Google использует все имеющиеся в ее арсенале инструменты, в том числе и глубокое обучение с подкреплением — самый продвинутый тип алгоритма машинного обучения в мире.
Эта система, наложенная на приобретение MetaWeb компанией Google, стала переломным моментом. Причина, по которой приобретение MetaWeb в 2010 году было столь важным, заключается в том, что оно снизило вес, который Google придавал ключевым словам. Контекст внезапно стал важным, это было достигнуто с помощью методологии категоризации, называемой «сущности». Как описала Fast Company :
Как только Metaweb выяснит, на какую сущность вы ссылаетесь, он может предоставить набор результатов. Он даже может объединять сущности для более сложных поисков — «актрисы старше 40» могут быть одной сущностью, «актрисы, живущие в Нью-Йорке» могут быть другой, а «актрисы, у которых сейчас идет фильм» могут быть еще одной.
Эта технология была включена в крупное обновление алгоритма под названием RankBrain , которое было запущено весной 2015 года. RankBrain фокусировался на понимании контекста, а не был основан исключительно на ключевых словах, и RankBrain также учитывал контексты окружающей среды (например, местоположение пользователя) и экстраполировал значение там, где его раньше не было. Это было важное обновление, особенно для мобильных пользователей.
Теперь, когда мы понимаем, как Google использует эти технологии, давайте применим вычислительную теорию, чтобы поразмышлять о том, как это делается.
Что такое глубокое обучение?
Глубокое обучение — наиболее часто используемый тип машинного обучения. Google просто не может не использовать этот алгоритм.
На глубокое обучение существенное влияние оказывает то, как работает человеческий мозг, и оно пытается отразить поведение мозга в том, как тот использует распознавание образов для идентификации и категоризации объектов.
Например, если вы видите букву a , ваш мозг автоматически распознает линии и формы, чтобы затем идентифицировать ее как букву a . То же самое применяется к другим буквам , ваш мозг автоматически пытается предсказать будущее, придумывая потенциальные слова, такие как app или apple . Другие шаблоны могут включать цифры, дорожные знаки или идентификацию любимого человека в переполненном аэропорту.
Взаимосвязи в системе глубокого обучения можно сравнить с тем, как работает человеческий мозг, соединяющий нейроны и синапсы.
Глубокое обучение — это в конечном счете термин, данный архитектурам машинного обучения, которые объединяют многослойные персептроны вместе, так что есть не один скрытый слой, а много скрытых слоев. Чем «глубже» глубокая нейронная сеть, тем более сложные шаблоны она может изучить.
Полностью связанные сети можно комбинировать с другими функциями машинного обучения для создания различных архитектур глубокого обучения.
Как Google использует глубокое обучение
Google просматривает веб-сайты мира, следуя гиперссылкам (представьте себе нейроны), которые соединяют веб-сайты друг с другом. Это была изначальная методология, которую Google использовал с самого начала, и она используется до сих пор. После индексации веб-сайтов различные типы ИИ используются для анализа этого сокровища данных.
Система Google маркирует веб-страницы в соответствии с различными внутренними метриками, с небольшим человеческим вкладом или вмешательством. Примером вмешательства может быть ручное удаление определенного URL из-за запроса на удаление DMCA .
Инженеры Google известны тем, что разочаровывают участников конференций по SEO-продвижению , и это потому, что руководители Google никогда не могут правильно объяснить, как работает Google. Когда задают вопросы о том, почему определенные веб-сайты не ранжируются, почти всегда следует один и тот же плохо сформулированный ответ.
Ответ настолько частый, что часто участники заранее заявляют, что они месяцами или даже годами подряд создавали хороший контент, но не получили никаких положительных результатов.
Как и ожидалось, владельцам веб-сайтов поручено сосредоточиться на создании ценного контента — важного компонента, но далеко не всеобъемлющего.
Отсутствие ответа объясняется тем, что руководители не способны правильно ответить на вопрос. Алгоритм Google работает в черном ящике. Есть вход, а затем выход — и именно так работает глубокое обучение.
Давайте теперь вернемся к штрафу за снижение рейтинга, который негативно влияет на миллионы веб-сайтов, зачастую без ведома их владельцев.
PageSpeed Insights
Google не всегда прозрачен, PageSpeed Insights — исключение. Веб-сайты, которые не пройдут этот тест скорости, будут отправлены в штрафной бокс за медленную загрузку — особенно если это затронет мобильных пользователей.
Подозревается, что в какой-то момент процесса есть дерево решений, которое анализирует быстрые веб-сайты, в отличие от медленно загружающихся (PageSpeed Insights не прошел). Дерево решений по сути является алгоритмическим подходом, который разделяет набор данных на отдельные точки данных на основе различных критериев. Критерии могут негативно влиять на то, как высоко ранжируется страница для мобильных пользователей по сравнению с пользователями настольных компьютеров.
Гипотетически штраф может быть применен к естественному рейтингу. Например, веб-сайт, который без штрафа был бы на 5-м месте, может иметь -20, -50 или какую-то другую неизвестную переменную, которая снизит рейтинг до #25, #55 или другого числа, выбранного ИИ.
В будущем мы можем увидеть конец PageSpeed Insights, когда Google станет более уверенным в своем ИИ. Это текущее вмешательство Google в скорость опасно, поскольку оно может потенциально исключить результаты, которые были бы оптимальными, и дискриминирует менее технически подкованных.
Поэтому каждый, кто управляет малым бизнесом, должен иметь опыт хотя бы минимальной успешной диагностики и устранения проблем с тестом скорости. Одним из простых решений было бы для Google просто выпустить плагин оптимизации скорости для пользователей WordPress, поскольку WordPress поддерживает 43% интернета.
К сожалению, все усилия SEO напрасны, если сайт не проходит тест PageSpeed Insights от Google . Ставки здесь — не что иное, как исчезновение сайта из выдачи Google.
Как пройти этот тест, мы постараемся рассказать в другой статье, но как минимум вам следует проверить, проходит ли ваш сайт этот тест .
Еще одна важная техническая метрика, о которой стоит беспокоиться, — это протокол безопасности SSL (Secure Sockets Layer). Он изменяет URL домена с http на https и обеспечивает безопасную передачу данных. Любой веб-сайт, на котором не включен SSL, будет оштрафован. Хотя из этого правила есть некоторые исключения, сильнее всего пострадают веб-сайты электронной коммерции и финансов.
Недорогие хостинг-провайдеры взимают ежегодную плату за внедрение SSL, в то время как хорошие хостинг-провайдеры, такие как Siteground, выдают SSL-сертификаты бесплатно и автоматически интегрируют их.
Метаданные
Другим важным элементом на сайте является Meta Title и Meta description. Эти поля контента имеют нестандартный порядок важности, который может внести такой же вклад в успех или провал страницы, как и все ее содержимое.
Это потому, что Google имеет высокую вероятность выбора Meta Title и Meta description для показа в результатах поиска. И вот почему важно заполнять поля Meta Title и Meta Description как можно более тщательно.
Альтернативой является то, что Google может игнорировать мета-заголовок и мета-описание, чтобы вместо этого автоматически генерировать данные, которые, по его прогнозам, приведут к большему количеству кликов. Если Google плохо предсказывает, какой заголовок автоматически генерировать, это будет способствовать меньшему количеству кликов со стороны поисковиков и, следовательно, потере рейтинга в поисковой системе.
Если Google считает, что включенное метаописание оптимизировано для получения кликов, он покажет его в результатах поиска. Если это не так, Google берет случайный фрагмент текста с веб-сайта. Часто Google выбирает лучший текст на странице, проблема в том, что это лотерейная система, и Google постоянно плохо выбирает, какое описание выбрать.
Конечно, если вы считаете, что контент на вашей странице действительно хорош, иногда имеет смысл позволить Google выбрать оптимизированное метаописание, которое лучше всего соответствует запросу пользователя.
В это же время миллиарды людей нажимают на лучшие результаты поиска — это человек в петле , последний механизм обратной связи Google — и здесь вступает в действие обучение с подкреплением.
Что такое обучение с подкреплением?
Обучение с подкреплением — это метод машинного обучения, который включает в себя обучение агента ИИ посредством повторения действий и связанных с ними вознаграждений. Агент обучения с подкреплением экспериментирует в среде, совершая действия и получая вознаграждение за совершение правильных действий. Со временем агент учится совершать действия, которые максимизируют его вознаграждение.
Вознаграждение может быть основано на простом расчете, который подсчитывает количество времени, проведенного на рекомендуемой странице.
Если объединить эту методологию с подпрограммой «человек-в-контуре», то это будет очень похоже на существующие рекомендательные системы, которые контролируют все аспекты нашей цифровой жизни, такие как YouTube, Netflix, Amazon Prime. И если это похоже на то, как должна работать поисковая система, вы правы.
Как Google использует обучение с подкреплением
Маховик Google совершенствуется с каждым поиском, люди обучают ИИ, выбирая лучший результат, который наилучшим образом отвечает на их запрос и аналогичные запросы миллионов других пользователей.
Агент подкрепляющего обучения постоянно работает над самосовершенствованием, подкрепляя только самые позитивные взаимодействия между поиском и полученными результатами поиска.
Google измеряет время, необходимое пользователю для сканирования страницы результатов, URL, по которому он нажимает, и измеряет время, проведенное на посещенном веб-сайте, и регистрирует повторный клик. Затем эти данные собираются и сравниваются для каждого веб-сайта, который предлагает похожее соответствие данных или пользовательский опыт.
Веб-сайт с низким показателем удержания (время, проведенное на сайте) затем получает отрицательное значение от системы обучения с подкреплением, а другие конкурирующие веб-сайты тестируются для улучшения предлагаемых рейтингов. Google беспристрастен, предполагая, что нет ручного вмешательства, Google в конечном итоге предоставляет желаемую страницу результатов поиска.
Пользователи — это человек в контуре, который предоставляет Google бесплатные данные и становится конечным компонентом системы глубокого обучения с подкреплением. В обмен на эту услугу Google предлагает конечному пользователю возможность нажать на рекламу.
Реклама, не приносящая доход, выступает в качестве вторичного фактора ранжирования, предоставляя больше данных о том, что побуждает пользователя кликнуть по ней.
Google по сути изучает, чего хочет пользователь. Это можно примерно сравнить с рекомендательной системой видеостримингового сервиса. В этом случае рекомендательная система будет снабжать пользователя контентом, который соответствует его интересам. Например, пользователь, который обычно любит смотреть романтические комедии, может наслаждаться некоторыми пародиями, если у него одни и те же комики.
Как это помогает SEO-продвижению сайта?
Если мы продолжим вычислительное мышление, то можем предположить, что Google обучился выдавать наилучшие результаты, и это часто достигается путем обобщения и удовлетворения человеческих предубеждений. Фактически, ИИ Google не смог бы оптимизировать результаты, которые учитывают эти предубеждения, если бы он это делал, результаты были бы неоптимальными.
Другими словами, волшебной формулы не существует, но есть некоторые передовые методы.
Обязанность специалиста по поисковой оптимизации — распознавать предубеждения, которые Google ищет и которые характерны для его отрасли, и подпитывать эти предубеждения. Например, кто-то ищет результаты опросов по выборам, не указывая дату, скорее всего, ищет самые последние результаты — это предубеждение новизны. Кто-то, кто ищет рецепт, скорее всего, не нуждается в самой последней странице и может на самом деле предпочесть рецепт, который выдержал испытание временем.
Ответственность специалиста по SEO заключается в том, чтобы предлагать посетителям результаты, которые они ищут. Это наиболее устойчивый способ ранжирования в Google.
Владельцы веб-сайтов должны отказаться от таргетинга на определенное ключевое слово, ожидая, что они смогут предоставить конечному пользователю все, что он захочет. Результат поиска должен точно соответствовать потребностям пользователя.
Что такое предвзятость? Это может быть доменное имя, которое выглядит высокоавторитетным, другими словами, соответствует ли доменное имя рынку, на котором вы работаете?
Наличие доменного имени со словом Russia в нем может отпугнуть пользователей из США от нажатия на URL из-за националистического предубеждения доверия результатам, которые исходят из страны проживания пользователя. Наличие домена из одного слова также может создать иллюзию авторитетности.
Самое важное смещение — это то, что пользователь хочет получить в соответствии со своим поисковым запросом? Это часто задаваемые вопросы, список 10 лучших, запись в блоге? На это нужно ответить, и ответ легко найти. Вам просто нужно проанализировать конкуренцию, выполнив поиск Google на вашем целевом рынке.
Черная SEO-стратегия мертва
Сравните это с Black Hat SEO — агрессивным методом ранжирования веб-сайтов, который использует коварные методы спама, включая покупку обратных ссылок, фальсификацию обратных ссылок, взлом веб-сайтов, автоматическую генерацию социальных закладок в больших масштабах и другие темные методологии, которые применяются с помощью сети инструментов черного поиска.
Инструменты, которые часто перепрофилируются и перепродаются на различных форумах поискового маркетинга, продукты с почти нулевой ценностью и малыми шансами на успех. В настоящее время эти инструменты позволяют продавцам стать богатыми, в то время как они предлагают минимальную ценность для конечного пользователя.
Вот почему я никогда сам не использую и другим рекомендую отказаться от Black Hat. Сосредоточьте свое SEO на рассмотрении его через призму машинного обучения.
Важно понимать, что каждый раз, когда кто-то пропускает результат поиска, чтобы нажать на результат, скрытый под ним, это человек в контуре, сотрудничающий с системой глубокого обучения с подкреплением. Человек помогает ИИ в самосовершенствовании, становясь бесконечно лучше с течением времени.
Это алгоритм машинного обучения, который был обучен большим количеством пользователей, чем любая другая система в истории человечества.
Google обрабатывает в среднем 3,8 миллиона поисковых запросов в минуту по всему миру. Это составляет 228 миллионов поисковых запросов в час, 5,6 миллиарда поисковых запросов в день . Это очень много данных, и именно поэтому глупо пытаться заниматься черным SEO. Предполагать, что ИИ Google останется на месте, глупо, система использует Закон ускорения отдачи для экспоненциального самосовершенствования.
ИИ от Google становится настолько мощным, что вполне возможно, что в конечном итоге он станет первым ИИ, достигшим уровня искусственного интеллекта общего назначения (AGI). AGI — это интеллект, который способен использовать трансферное обучение для освоения одной области, чтобы затем применять этот изученный интеллект в нескольких областях. Хотя может быть интересно исследовать будущие усилия Google в области AGI, следует понимать, что как только процесс запущен, его трудно остановить. Конечно, это предположения о будущем, поскольку Google в настоящее время является типом узкого ИИ, но это тема для другой статьи.
Белое SEO - продвижение сайта
Если мы примем, что ИИ Google будет постоянно самосовершенствоваться, то у нас не останется выбора, кроме как отказаться от попыток перехитрить Google. Вместо этого сосредоточьтесь на оптимизации веб-сайта, чтобы оптимально предоставить Google именно то, что он ищет.
Как описано, это включает включение SSL, оптимизацию скорости загрузки страницы и оптимизацию Meta Title и Meta Description. Чтобы оптимизировать эти поля, Meta Title и Meta Description должны быть сравнены с конкурирующими веб-сайтами – Определите выигрышные элементы, которые приводят к высокому показателю кликов.
Если вы оптимизировали кликабельность, то следующим этапом станет создание лучшей целевой страницы. Цель — целевая страница, которая оптимизирует ценность пользователя настолько, что среднее время, проведенное на странице, превзойдет показатели аналогичных конкурентов, борющихся за верхние позиции в результатах поиска.
Только предлагая наилучший пользовательский опыт, веб-страница может повысить свой рейтинг.
На данный момент мы определили следующие показатели как наиболее важные:
- Скорость загрузки
- SSL включен
- Мета-заголовок и мета-описание
- Целевая страница
Целевая страница — самый сложный элемент, поскольку вы соревнуетесь с миром. Целевая страница должна быстро загружаться и должна обслуживать все, что ожидается, а затем удивлять пользователя еще большим.
Было бы легко заполнить еще 2000 слов, описывая другие технологии ИИ, которые использует Google, а также углубиться в кроличью нору SEO. Цель здесь — переориентировать внимание на самые важные метрики.
Специалисты по SEO настолько сосредоточены на игре с системой, что забывают, что в конечном итоге самый важный элемент SEO — предоставить пользователям как можно больше ценности.
Один из способов добиться этого — никогда не позволять важному контенту устаревать. Если через месяц я придумаю важный вклад, он будет добавлен в эту статью. Затем Google может определить, насколько свеж контент, сопоставив его с историей предоставления ценности страницы.
Если вы все еще беспокоитесь о получении обратных ссылок, решение простое. Уважайте время своих посетителей и давайте им ценность. Обратные ссылки придут сами собой, поскольку пользователи найдут ценность в распространении вашего контента.