Если судить по моему сайту, то наоборот даже как то выше стала.
До недавнего времени поисковые системы вообще "не смотрели", что на картинке нарисовано. Да и сейчас это еще достаточно криво реализовано. Собственно, что нарисовано на картинке, поисковая система берет из альтернативного текста тега <img>, из окружающего картинку текста и других подобных источников, а также из метаданных файла (EXIF). Отсюда следует, что картинку нужно подписывать, чтобы она была искабельной.
Главное нововведение - это изменение ТИЦ на ИКС.
Теперь в целом все осталось по прежнему. Но этот ИКС будет и чаще обновляться чем ТИЦ раньше.
При этом оно как то повлияет и на результаты поиска - люди будут делать сайты уже на основе поведенческих факторов прежде всего - а это в какой-то степени может гарантировать успех в будущем.... Да и мусорных сайтов становится меньше, дорвеев тоже.
К одному и тому же сайту можно привязать неограниченное количество доменов. Например, это может быть какой-то старый домен сайта или какое-то написание с ошибкой. Один домен является основным, а остальные должны делать редирект на основной домен, но можно и чтобы домен работал как зеркало, т.е. отображал тоже самое содержание. Суть в том, что всем доменам присваиваются одни и те же характеристики ТИЦ, PR, количество проиндексированных страниц и т.п., а в результатах поиска присутствует только основной домен.
Некоторые деятели этим пользуются, делая копию сайта на склеенном домене и пытаясь его продать. Внешне видно, что домен имеет характеристики, но все эти характеристики фактически принадлежат основному домену. Перед покупкой сайт обязательно проверяется на клей.
Ну а в SEO случается, что поисковик по каким-то причинам начинает сам считать один сайт копией другого. Естественно, склеенный домен сколько ни продвигай, ничего не получится. Вот поэтому в ходе анализа и проверяют на склейку. Если склейка выявлена, то разбираются с ее причинами и принимают решение, что с этим можно сделать.
Я считаю LSI копирайтинг это - латентное семантическое индексирование – предполагаю, что поисковый робот выделяет из текста не отдельные фразы, часто встречающиеся среди вводимых в поисковую строку, а выбирает тематику страницы на основании комплекса используемых на ней слов, включая словоформы, синонимы и близкотематические фразы.