Блог Makeomatic: разработка сайтов и мобильных приложений

SEO

Введение в алгоритмы индексации поисковых машин

Нужно понимать и соблюдать

| Категории: SEO
Анна Аминева

О чем подумать перед оптимизацией ресурса

Прежде чем начать оптимизацию сайта, т. е. поднять его на топовые позиции в поиске, следует понять что такое поисковые машины, что они содержат и как их готовить.

Поисковые машины проходят огромнейший путь, чтобы найти информацию по нужному запросу. Они исследует не весь Интернет, а в пределах собственной базы данных, которая постоянно обновляет информацию. В Интернет сети находится несчитанное множество информации, где кол-во веб страниц превышает кол-во данных о них.
Поисковые алгоритмы имеют индивидуальную структуру данных. К примеру: один и тот же запрос в Google и Яндекс выдаст абсолютно разные результаты. Стоит отметить, что некоторые из поисковых машин используют алгоритмы успешных конкурентов. mail.ru тоже не исключение. Доволен базой данных от Google, добавляя свои изменения и корректировки.

Таким образом, поисковые машины основываются на построение индивидуальной структуры базы, которая выдает результаты максимально соответствующие заданному запросу.

Тренды поисковой оптимизации

В разрезе эволюции алгоритомов поисковых машин

| Категории: SEO
Анна Аминева

Прошлое и настоящее Seo

1997-1999- зарождение поисковых машин. Период зомбированной работы seo- специалистов, занимающихся добавлением каждого сайта в поисковые машины. По сей день некоторые сео-компании предлагают своим клиентам самостоятельно регистрировать сайт во всевозможных поисковиках. Далеко не все знают о программах индексации, которые имеют алгоритмы Page Rank (алгоритм ссылочного ранжирования), Trust Rank (точные данные авторитетности сайта), которые, в свою очередь, хранятся в строжайшем секрете.

Расцвет спама

Тот период был переполнен спамерами, можно было использовать ключевые слова сколько угодно в комментариях, заголовках. Любой контент с легкостью прятался от посторонних глаз с помощью специальных HTML уловок.

Поисковые машины были слабы в технологиях распознавания подобных уловок, поэтому такие сайты занимали лидирующие позиции. Несмотря на то, что такой подход, не иначе как прошлый век, оптимизаторы продолжают вести модель примитивной оптимизации, за счет чего спам-сайты «банят» (другими словами, удаляют из индекса).

Что за правило, не имеющее исключений?

Yahoo использовал алгоритмы, исключающие страницы, использующие черные способы оптимизации

Внешние факторы: хорошо для прошлого и бесполезно для будущего?