http://npc-news.ru/

Panda (алгоритм)

Panda представляет собой самый новейший разработанный Google алгоритм, запущенный в работу в августе 2011 года. В англоязычном сегменте Всемирной паутины этот алгоритм запустили немногим ранее, в апреле того же года. Разработка нового алгоритма стала возможна благодаря усилиям сотрудников этого поисковика Мэтта Катса и Амита Сингала. Новый алгоритм имеет радикальные отличия от всех существовавших ранее подобных разработок, и прежде всего это объясняется его ориентированностью на человеческий фактор. Вместе с тем никуда не делось в этом алгоритме и ранжирование по обычным критериям.

1. Уникальность контента.
Учёт уникальности текстового наполнения в Панде реализован в виде процентного соотношения копипаста, причём как для сайта в целом, так и для отдельно взятой его конкретной страницы. И поэтому имеющиеся заимствования ухудшают не только позиции такой страницы, но и всего ресурса. Панда эффективно отслеживает и такой показатель, как шаблонность, то есть во время работы алгоритма выявляются похожие по содержанию страницы, несмотря даже на то, что их контент создавался под абсолютно разные ключевые запросы.

2. Релевантность рекламы.
Вполне понятно, что если интернет-магазин занимается продажей например тяжёлых грузовиков, то реклама детского питания на его страницах будет не совсем уместной, и поисковик также останется этим недоволен. Тем самым Google в оценке качества размещения рекламы охлаждает пыл зарабатывания денег не совсем разборчивыми веб-мастерами и оптимизаторами. Главная преследуемая при этом цель — поднятие таких сайтов, которые полностью соответствуют заявленной тематике.

3. Ссылочная масса.
В данном отношении рассматриваются как размещённые, так и обратные ссылки, и основное требование — это нахождение сайтов в едином информационном пространстве. То есть те сайты, между которыми производится регулярный обмен ссылочной массой, должны максимально совпадать по своей тематике. Само собой, что Панда учитывает и количество обратных ссылок, но в то же время при ранжировании этот показатель не является одним из определяющих.

4. Человеческий фактор.
Наиболее подходящей для оптимального определения этого показателя является SEO-терминология, где человеческий фактор принято называть поведенческим. Поисковый алгоритм Панда в отличие от всех прочих алгоритмов очень придирчиво относится к учёту поведения пользователей на сайте. Это несомненно потребовало от разработчиков серьёзного усложнения алгоритма, и именно этот фактор стал причиной долгого запуска данного алгоритма во всей сети, так как разработчики очень долго отстраивали работу поисковых многочисленных инструментов.
Тем не менее результаты просто поражают, и топовые позиции в в Google на сегодняшний день способны занимать по-настоящему полезные сайты. Сам же алгоритм Панда во-многом способствовал тому, что Google смог стать самым мощным поисковиком на планете. И об этом свидетельствует не только регулярный прирост пользователей данного сервиса, но и цифры капитализации Google, который оценивается в более, чем 200 миллиардов долларов. Вполне понятно, что пользователя можно обмануть агрессивной рекламой и разными модными фишками, но такие дешёвые трюки сразу же выявляются потенциальными инвесторами. И как показывает складывающаяся тенденция инвесторы в Google видят большой потенциал и прибыль, и огромное значения для такой оценки имеет Панда.
Ну и напоследок стоит всё-таки обозначить эти самые поведенческие факторы, включающие в себя довольно ограниченный набор критериев:
1. Показатель отказов;
2. Проведённое пользователем на сайте время;
3. Соотношение возвратов на сайт к общему количеству переходов.
При этом Панда учитывает и детали каждого приведённого выше показателя. То есть при учёте времени например внимание уделяется не только самому проведённому на сайте пользователем времени, но и производимым при этом им действиям (переходы по ссылкам, тем или иным образом относящимся к предмету ключевого запроса). Именно так алгоритм помогает выявить не только полезность и привлекательность конкретно взятого ресурса для пользователей, но также и средства, за счёт которых он таким и становится.
Оптимизаторы, занимающиеся продвижением сайтов в Google, даже при относительно невысокой ссылочной массе могут в итоге добиться довольно высоких позиций в поисковых выдачах. Но для этого потребуется провести грамотную перелинковку всех внутренних страниц ресурса и повысить его удобство для любого из приходящих на него пользователей


Комментарии закрыты.