Как вывести сайт из-под «Пингвина» (алгоритм от Google)?
С момента выпуска нового алгоритма «Пингвин» от Google (Penguin), многие сайты так и не смогли выйти из-под санкций поисковой системы и не знают как восстановить потерянные позиции сайта в поисковике Гугл.
<h2>Есть ли способ вывести свой сайт из-под Пингвина?</h2>
Во-первых, нужно подумать почему ваш сайт попал под этот тфильтр. Любая поисковая система работает над качеством выдаваемого в серп контент. Нет ничего удивительного, что сайт агрессивно продвигающийся в рейтинге, вдруг был уличен в нечестной игре и попал вод фильтр Пингвин.
Во-вторых, алгоритмы ранжирования и фильтров всех поисковых систем являются коммерческой тайной. Поэтому вы не найдете так интересующий всех SEO- специалистов алгоритм от Google
Поскольку самого алгоритма найти не представляется возможным, то попытаемся составить определенные правила действий по продвижению и по падению разных проектов. На собственном опыте я убедился в том, что:
Гугл негативно относится к сайтам, которые закупили массу ссылок. Особенно ссылок на некачественных донорах. Как происходит определение «качества» биржи, для меня загадка. Могу только сказать, что биржи ссылок Европейского происхождения (Польша, Германия, Чехия и др.), Манипуляции со ссылками на Вебэффекторах уже давно не работает. Поэтому уделять внимание можно только ТЕМАТИЧЕСКИМ ссылкам на серьезных проектах, а не на говносайтах. Важно что бы ссылки создавались ЕСТЕСТВЕННО, например, путем социальной активности. В этом плане хорошее подспорье различные социальные кнопки типа «нравится». Делаем выводы. Если ваши ссылки не «честны на просвет» то от них нужно отказаться. Инструмент Disallow Links в помощь вам. Статьи о проекте на бесплатных и сомнительных сайтах нужно также убрать. Обмен ссылками вообще лучше не применять – легко спалиться. Гугл следит за тобой:-)
Время загрузки сократить на столько на сколько это возможно (это и не используемые элементы разметки, и построение миниатюр изображений и прочие хитрости). Поисковики вообще не любят тяжелые сайты. Изображения подписывать согласно их содержимому, а не названию статьи. Отсюда следует, что картинки должны быть уместными и не содержать элементов «черной» СЕО-оптимизации. Пересмотрите свой контент на наличие обмана посетителей по ключевым запросам и размещенным изображениям. Контент должен быть авторским. Кто-кто, а Гугл уже давно научится определять плагиат. Он даже умеет различить изображение кошки от собаки. Не нужно с ним шутить. Если совесть ваша не чиста, то либо удалите ворованный контент, либо сделайте качественный четабельный рерайт.
Ключевики не должны переспамливать статьи. Это касается ВСЕГО, начиная TITLE, минуя Description и тег keywords, заканчивая ULR страницы. Все должно быть уместно и коротко. Если считаете нужным употребить разные ключевики, то можно это сделать последовательно в каждом теге отдельно (H1, H2, H3…), но не вместе. И так что бы пользователю это не мешало читать. Из подзаголовка должно быть понятно, о чем пойдет речь дальше. Исключите чрезмерное употребление ключевых слов, тем более в самостоятельном «неразбавленном» виде.
Никакого клоакинга! Пишите текст непринужденно. Не фаршируйте его низкочастотными запросами. Вкладывайте душу или деньги (покупая у талантлевых рерайтеров). СЕО-оптимизация 2010-2013х годов уже не работает. В статье нужно разкрыть суть поискового запроса, а не нашпиговать её тысячами уникального текста. Не следует дублировать контент. Это вообще не любит ни Гугл ни Яндекс. Одинаковые статьи должны быть сведены в разные рубрики обычной перелинковкой, но не копированием. Спамный текст либо удалите, либо перефразируйте.
Контролируйте плотность слов в анкор-листе сайта. Качественная навигация не должна перерасти в чрезмерную перелинковку. Все должно быть в меру. Удалите чрезмерные и повторяющиеся на одной и тойже страничке ссылки. Если сайт связан с брендом, то не обязательно размещать тематические ссылки. Достаточно упомянуть ваш бренд в обычном тексте и Гугл обязательно это заметит.
Таким образом, нужно создавать качественный контент на сайте. Ссылки должны быть не просто тематическими, а еще и естественными. Изображения вставлены уместно и и по возможности, не нарушающие авторские права. После каждого нововведения проводите веб-аналитику. Анализируйте контент тематических сайтов выходящих в СЕРП. Берите с них пример. И тогда все будет ок.
Пингвин серьезная птица просто так не отпустит. Налагается данный фильтр в основном на сайты на которые ведут много некачественных не естественных (продажных) ссылок. От них то и надо избавляться.
Если со страницы ведут более пять внешних ссылок то это считается для пингвина неестественным.
Поисковики вообще и Гугл в частности индексируют (считывают и заносят в архив) абсолютно всё.
Даже если вы обозначаете копипаст тегами, дающими команду поисковикам не замечать, игнорировать этот кусок текста – поисковики всё равно эту часть текста читают и делают определённые «выводы» по поводу того, сколько «стыренного» контента располагается на данном сайте… просто этот «спрятанный» копипаст Гугл не будет выдавать в поиске на запросы других пользователей.
Вопрос был задан еще 4 года назад и тогда было немного сложнее быстро проиндексировать сайт как в яндексе, так и в Google. Сейчас есть специальные функции у этих поисковых систем, которые позволяют за несколько дней, а то и часов появится страницам сайта в поисковой выдаче. Для этого достаточно добавить сайт в инструменты для веб мастера и в Яндекс, и в Гугл.
В панели инструментов Google переходите в раздел Сканирование, далее Посмотреть как Google bot или по ссылке https://www.google.com/webmasters/tools/googlebot-fetch?hl=ru и там вводите адрес страницы после слеша или оставляете поле пустым если нужно добавить в индекс или переиндексировать главную страницу и весь сайт целиком. Нажимаете Сканировать и потом на кнопку Добавить в индекс. Выбираете вариант Сканировать этот URL и прямые ссылки и нажимаете Отправить. Все, ожидайте и проверяйте в индексе. Для этого в поисковой строке Google вбиваете запрос site:moysite.ru, где moysite.ru - адрес Вашего сайта.
Чтобы ускорить индексацию сайта в Яндексе в панели веб мастера Яндекс переходите в раздел Инструменты, выбираете функцию Переобход страниц, вводите адрес сайта и нажимаете Отправить. Проверить какие страницы находятся в индексе можно точно также как и для гугла, но только в поисковой системе yandex.ru.
Гугл отличается от Яндекса особой шустростью в отношении индексации страниц. Так, гугл может проиндексировать ваш сайт уже на следующий день, а вот Яндекс может это делать пол года и дольше. А вот в поиске на топовых местах свой сайт, а точнее его страницы, сможете увидеть только при условии качественного наполнения и периодического добавления контента сайта.
Что бы ваш сайт проиндексировался Яндексом или Гуглом необязательно регистрироваться в этих системах, достаточно чтобы на него были ссылки с других сайтов уже проиндексированных в этих системах. Бесплатно получить ссылку можно например в различных каталогах, рейтингах, на форумах. Через некоторое время ваш сайт автоматически появится в поисковых системах, в Гугле примерно через две недели, в Яндексе позже. Проверить очень просто: создаёте поисковый запрос с адресом вашего сайта и если в результате выдачи будут страницы вашего сайта, значит всё прошло успешно. Ещё вариант - произвести SEO анализ, например на сайте pr-cy.ru там вы узнаете - какие страницы и сколько в индексе, а так же какой у вашего сайта ТИЦ и PR.
Как по мне, так тот же Blogger от Google выглядит на много солиднее. Да и в управлении конструктор сайтов угловат. Особенно сложно работать с картинками: выставить нужный размер, поставить в нужное место. В общем слишком простоват и примитивен.