Заробітки в інтернет

Одним з найбільш вагомих негативних факторів на шляху просування інтернет-ресурсу є використання контенту з низьким рівнем унікальності. Пошукові системи вкрай негативно сприймають як повні, так і часткові дублі сторінок.

Що робити при виявленні на сайті дубльованого контенту? Природно, в першу чергу необхідно позбутися від усіх дублів. Якщо прибрати текст не представляється можливим, необхідно приховати сторінку від індексації. Крім згаданого вище способу, пов'язаного зі зміною файлу Robots.txt, існують і інші інструменти установки заборони на індексацію небажаних сторінок. Перший - це мета-тег 'robots' в структурі html-коду сторінки. Цей тег доповнюється такими атрибутами: index (індексувати), follow (враховувати посилання), noindex (Не індексувати), nofollow (не враховувати посилання), all (індексувати всі), none (Не індексувати нічого). Використання тега robots - один з найпростіших способів вказівки пошуковим роботам, можна індексувати сторінку і слідувати по розміщених на ній лінками. У Яндекса існує свій спеціальний тег noindex, що забороняє індексацію. Природно, для інших пошукових систем він не працює. За допомогою цього тега можна закрити будь-яку частину сторінки - робот буде бачити цей фрагмент контенту, але враховувати його не буде.

Вступайте в мої групи на SubScribe.ru:

Я зробив активне посилання на джерело статті (її сайт). А ось без скорочення файл не поміщався в блог.

Згоден. Втім, подивіться самі Королівський гамбіт King's gambit K? Nigsgambit wwwchesskorneev.blox.ua Йдеться про фото «Цікаве множення» в «Математичної сторінці».

Схожі статті