Поисковая оптимизация

Поиско́вая оптимиза́ция (англ. search engine optimization, SEO) — комплекс мер по внутренней и внешней оптимизации для поднятия позиций сайта в результатах выдачи поисковых систем по определённым запросам пользователей, с целью увеличения сетевого трафика (для информационных ресурсов) и потенциальных клиентов (для коммерческих ресурсов) и последующей монетизации (получение дохода) этого трафика.

Обычно чем выше позиция сайта в результатах поиска, тем больше заинтересованных посетителей переходит на него с поисковых систем. При анализе эффективности поисковой оптимизации оценивается стоимость целевого посетителя с учётом времени вывода сайта на указанные позиции и конверсии сайта.

Основные направления работы

Поисковые системы учитывают множество внутренних и внешних параметров сайта при вычислении его релевантности (степени соответствия введённому запросу):

  • плотность ключевых слов (сложные алгоритмы современных поисковых систем позволяют производить семантический анализ текста, чтобы отсеять поисковый спам, в котором ключевое слово встречается слишком часто (терм. сленг «тошнота»);
  • индекс цитирования сайта («ИЦ»), зависящий от количества и авторитетности веб-ресурсов, ссылающихся на данный сайт; многими поисковиками не учитываются взаимные ссылки (друг на друга). Примером метрики являлся PageRank;
  • водность текста — показатель, определяющий наличие малозначимых слов, которые не несут никакой полезной информации и служат для разбавления текста (стоп-слова);
  • поведенческие факторы (внутренние) — ряд всевозможных действий пользователей, которые они могут произвести на сайте: вход, общее время проведённое пользователем на сайте, количество сессий одного пользователя на сайте, просмотр страниц, количество просмотренных пользователем страниц, возврат пользователя на сайт, клики на ссылки в тексте, переходы по ссылкам в меню;
  • поведенческие факторы (внешние) — основной внешний показатель качества поведения пользователя при взаимодействии с сайтом является отказ от дальнейшего поиска по ключевой фразы в поисковой системе;
  • индекс качества сайта («ИКС») — это показатель того, насколько полезен конкретный сайт для пользователей с точки зрения Яндекса. ИКС введён в 2018 году взамен тематического индекса цитирования (тИЦ), учитывавшего тематику ссылающихся сайтов.

Все факторы, влияющие на положение сайта в выдаче поисковой системы, можно разбить на внешние и внутренние. К внутренней оптимизации (касающейся исключительно внутренней системы сайта) относится работа, направленная на общее повышение качества сайта, пользы, которую он приносит посетителю. Сюда можно отнести работу над структурой проекта, над облегчением восприятия контента и непосредственно над качеством этого контента. Значение общего количества таких факторов в большинстве источников колеблется в районе 200. Функциональный подход к поисковой оптимизации, направленный на подгонку определённых факторов к их целевым значениям, отошел в прошлое в связи с усложнением алгоритмов поисковых систем — стоимость «балансирования» десятков факторов многократно превышает стоимость создания изначально качественного ресурса.

Внутренняя оптимизация включает в себя работу с заголовками страницы, которые содержатся в коде с тегами <h1>, <h2>, <h3>, надписью, которая высвечивается на вкладке браузера — Title, и созданием уникального текста на этих же страницах. Также важно уделить внимание мета-тегу description, поскольку именно его пользователь чаще всего видит под url сайта в поисковой выдаче.

Методы внутренней поисковой оптимизации

  • написание качественного контента;
  • увеличение скорости работы сайта;
  • адаптация под мобильные устройства;
  • HTML, CSS — валидация;
  • исследования нужных вам ключевых слов и конкурентов;
  • мета-теги заголовков (title);

Внешние факторы делятся на статические и динамические:

  • Статические внешние факторы определяют релевантность сайта на основании цитируемости его внешними веб-ресурсами, а также их авторитетности внезависимости от текста цитирования.
  • Динамические внешние факторы определяют релевантность сайта на основании цитируемости его внешними веб-ресурсами и их авторитетности в зависимости от текста цитирования.
  • «Поведенческие факторы и конверсия» показывают качество сайта для непосредственных потребителей. Ресурсы с плохими ПФ не могут занимать лидирующие позиции.

Методы внешней поисковой оптимизации:

  • регистрация в самостоятельных каталогах. Она может осуществляться вручную либо с помощью специальных ресурсов;
  • регистрация в каталогах поисковых систем таких как: Яндекс. Каталог, Рамблер/Топ100, каталог Yahoo и другие;
  • обмен ссылками. Существуют несколько способов обмена — прямой, кольцевой, односторонний (покупка ссылок);
  • регистрация в сервисах: Google Мой Бизнес и Яндекс. Справочник;
  • размещение статей («гостевые посты», публикация в СМИ);
  • социальные сети;
  • пресс-релизы;
  • крауд-маркетинг;
  • создание и ведение блогов;
  • создание сети сайтов («саттелиты»), используемых для увеличения количества упоминаний и ссылок в поисковой выдаче. Данный метод продвижения сайтов относится к «черным». Поисковые системы не советуют использовать подобные методы оптимизации и могут принять санкции в отношении таких сайтов.

Лицо, проводящее работу по оптимизации веб-сайтов, называется оптимизатор или SEO-специалист.

Существуют различные SEO-сервисы, позволяющие облегчить труд оптимизаторов и дать владельцам сайтов возможность продвигать их самостоятельно.

К факторам, понижающим рейтинг сайта, относятся:

  • неуникальный контент (статьи, новости и так далее);
  • технологии, которые поисковые машины рассматривают как спам;
  • избыточное число внешних ссылок, как результат неестественного прироста ссылочной массы;
  • накрутки поведенческих факторов;
  • большое количество исходящих ссылок;
  • некорректная вёрстка;
  • тяжёлый «замусоренный» код;
  • большой вес страницы (HTML-кода, картинок, JS-скриптов, CSS-стилей и прочее);
  • некорректные ответы сервера;
  • вирусы на сайте.

Помимо этого, некоторые поисковые системы (в том числе Google) снижают рейтинг сайта, если он не имеет мобильной версии (отдельной или адаптивной) — когда на телефонах и планшетах отображается полная версия сайта.[3]

История

Вместе с появлением и развитием поисковых систем в середине 1990-х появилась поисковая оптимизация. В то время поисковые системы придавали большое значение тексту на странице, ключевым словам в мета-тегах и прочим внутренним факторам, которыми владельцы сайтов могли легко манипулировать. Это привело к тому, что в выдаче многих поисковых систем первые несколько страниц заняли сайты, которые были полностью посвящены рекламе, что резко снизило качество работы поисковиков. С появлением технологии PageRank больше веса стало придаваться внешним факторам, что помогло Google выйти в лидеры поиска в мировом масштабе, затруднив оптимизацию при помощи одного лишь текста на сайте.

Однако оптимизация развивается вместе с поисковыми системами, и в современных результатах поиска можно видеть всё больше и больше коммерческих сайтов с искусственно раздутой популярностью, особенно по коммерчески привлекательным запросам (транзакционные запросы, транзактный анализ).

Наряду с этой глобальной тенденцией, которой активно противостоят ведущие поисковые системы, имеют место и важные изменения внутри отдельных региональных рынков поисковой оптимизации и продвижения. Так, для Рунета последних лет характерен отток действительно стоящих специалистов на зарубежные рынки. Это объясняется тем, что отечественные рынки уже не могут наполнять ликвидностью полноценные SEO компании. И бюджеты поисковой раскрутки на Западе являются более крупными, что делает их привлекательнее для оптимизаторов.[4]

Отношения с Google

В 1998 году два аспиранта из Стэнфордского университета Ларри Пейдж и Сергей Брин разработали поисковую систему «Backrub», которая использовала математический алгоритм для оценки популярности веб-страниц. Число, рассчитываемое по алгоритму PageRank, является функцией количества и силы обратных ссылок. PageRank оценивает вероятность того, что данная страница будет доступна веб-пользователю, который случайным образом просматривает веб-страницы и переходит по ссылкам с одной страницы на другую. По сути, это означает, что некоторые ссылки сильнее, чем другие, так как случайный веб-пользователь с большей вероятностью достигнет страницы с более высоким PageRank.

Пейдж и Брин основали Google в 1998 году. Google привлек лояльных последователей среди растущего числа пользователей Интернета, которым понравился его простой дизайн. Были учтены факторы вне страницы (такие как PageRank и анализ гиперссылок), а также факторы на странице (такие как частота ключевых слов, мета-теги, заголовки, ссылки и структура сайта), чтобы позволить Google избежать манипуляций, наблюдаемых в поисковых системах. это только учитывает факторы на странице для их рейтинга. Хотя PageRank был сложнее для игры, веб-мастера уже разработали инструменты и схемы построения ссылок, чтобы влиять на поисковую систему Inktomi, и эти методы оказались аналогичным образом применимы к игровому PageRank. Многие сайты сосредоточены на обмене, покупке и продаже ссылок, часто в массовом масштабе. Некоторые из этих схем, или линкоферм, включали создание тысяч сайтов с единственной целью рассылки спама.

К 2004 году поисковые системы включили широкий спектр нераскрытых факторов в свои алгоритмы ранжирования, чтобы уменьшить влияние манипулирования ссылками. В июне 2007 года Сол Ханселл из New York Times заявил, что Google ранжирует сайты, используя более 200 различных сигналов. Ведущие поисковые системы, Google, Bing и Yahoo, не раскрывают алгоритмы, которые они используют для ранжирования страниц. Некоторые практики SEO изучили различные подходы к поисковой оптимизации и поделились своим личным мнением. Патенты, связанные с поисковыми системами, могут предоставить информацию для лучшего понимания поисковых систем. В 2005 году Google начал персонализировать результаты поиска для каждого пользователя. В зависимости от истории предыдущих поисков Google создал результаты для зарегистрированных пользователей.

В 2007 году Google объявил о кампании против платных ссылок, которые передают PageRank. 15 июня 2009 года Google сообщил, что они приняли меры по смягчению последствий скульптинга PageRank с помощью атрибута nofollow для ссылок. Мэтт Каттс, известный разработчик программного обеспечения в Google, объявил, что Google Bot больше не будет обрабатывать ссылки nofollowed таким же образом, чтобы запретить поставщикам услуг SEO использовать nofollow для скульптинга PageRank. В результате этого изменения использование nofollow привело к испарению PageRank. Чтобы избежать всего вышесказанного, инженеры SEO разработали альтернативные методы, которые заменяют пустые теги скрытым Javascript и, таким образом, позволяют создавать скульптуры PageRank. Кроме того, было предложено несколько решений, которые включают использование iframes, Flash и Javascript.

В декабре 2009 года Google объявил, что будет использовать историю веб-поиска всех своих пользователей для заполнения результатов поиска. 8 июня 2010 года была объявлена ​​новая система веб-индексации под названием Google Caffeine. Разработанный для того, чтобы пользователи могли находить результаты новостей, сообщения на форумах и другой контент намного быстрее после публикации, чем раньше, Google Caffeine изменил способ обновления индекса Google, чтобы в Google все быстрее отображалось, чем раньше. По словам Кэрри Граймс, разработчика программного обеспечения, который объявил Caffeine для Google, «Caffeine обеспечивает на 50 % более свежие результаты для веб-поиска, чем наш последний индекс…». Google Instant, поиск в режиме реального времени, был представлен в конце 2010 года, как попытка сделать результаты поиска более своевременными и актуальными. Исторически администраторы сайта потратили месяцы или даже годы на оптимизацию сайта для повышения рейтинга в поисковых системах. С ростом популярности сайтов социальных сетей и блогов ведущие движки внесли изменения в свои алгоритмы, позволяющие быстро ранжировать свежий контент в результатах поиска.

В феврале 2011 года Google объявил об обновлении Panda, которое наказывает сайты, содержащие контент, дублированный с других сайтов и источников. Исторически сайты копировали контент друг от друга и получали выгоду в рейтинге поисковых систем, участвуя в этой практике. Однако Google внедрил новую систему, которая наказывает сайты, контент которых не является уникальным. В 2012 году Google Penguin попытался оштрафовать веб-сайты, которые использовали манипулятивные методы для повышения своего рейтинга в поисковой системе. Хотя Google Penguin был представлен как алгоритм, направленный на борьбу со спамом в сети, он действительно фокусируется на спам-ссылках путем измерения качества сайтов, с которых эти ссылки приходят. В обновлении Google Hummingbird 2013 года появилось изменение алгоритма, предназначенное для улучшения обработки естественного языка Google и семантического понимания веб-страниц. Система языковой обработки Hummingbird подпадает под недавно признанный термин «Разговорный поиск», где система уделяет больше внимания каждому слову в запросе, чтобы лучше сопоставить страницы со значением запроса, а не несколько слов[22]. Что касается изменений, внесенных в поисковую оптимизацию, для издателей и авторов контента, Hummingbird призван разрешать проблемы, избавляясь от нерелевантного контента и спама, позволяя Google производить высококачественный контент и полагаться на него как на «доверенных» авторов.