• Главная

Продвижение web сайта при помощи поисковых роботов: контент. Продвижение сайта при помощи робота


Увеличение трафика при помощи поисковых роботов

Создание сайта — это одно дело, но другое - это его дальнейшее продвижение в поисковых системах. Чем выше рейтинг Вашего сервера, тем больше клиентов привлекает тот или иной проект и тем успешнее он будет. Залог успеха любого контента — это вовремя принятые меры по его раскрутки!

Последнее время особую обеспокоенность вызывают действия платформы Google, а именно игнорирования действий по оптимизации и усовершенствованию сайта. Зачастую на работу уходят месяцы и все в пустую. Основная причина кроется при индексировании сайта, так как для этого Google использует различные версии поисковых роботов, существование которых на сегодня огромное множество. Суть работы поискового робота заключается в индексирование каждой страницы сервера по ключевым словам с использованием определенных алгоритмов. Но вот тут то и возникают неприятности — сроки продвижения сайта, ведь изначально не известно во сколько дней, недель или месяцев обойдется работа таких роботов. Как правило, Google просканируют сайт в лучшем случае за неделю. При этом об увеличение трафика на столько, чтобы привлечь хоть каких то клиентов не стоит и мечтать.

Но расстраиваться ненужно, так как выход из подобной ситуации есть, и опять же при помощи роботов платформы Google. Достаточно выполнить несколько не сложных действии и платформа с легкость посканирует сайт, проиндексирует каждую страницу и увеличит трафик, а соответственно и актуализации информации в «поисковиках».

Способы сканирования сайта.

Доверить оптимизацию роботам и спокойно ждать не вариант, необходимо контролировать выполнения работ. Так одним из способов контроля является проверка частоты сканирования Вашего сайта роботами Google, ведь именно от этого зависит успех продвижения контента. Проверка производиться с помощью удобного сервера Webmaster Tools в специальной вкладки «Инструменты», которая отражает актуальную информацию о посещениях Вашего сайта. Данная опция позволяет ежедневно отслеживать работу роботов, контролировать посещаемость и рейтинг сайта в различных поисковых.

Алгоритм работы с веб-мастером Webmaster Tools.

Чтобы воспользоваться функцией необходимо выполнить несколько несложных операции по подключению сайта к платформе. После подключения сайта, необходимо перейти на страницу “Статистика сканирования”.

Платформа Google выстраивает график исходя из последних 90 дней, который включает: число сканировании роботом и количество посещений сайта в день. Так можно заметить что эти показатели зависят от дня, например, еще два-три месяца назад сайт сканировался до 150 раз в сутки, а сейчас платформа Google может не обновлять два-три дня подряд, при этом количество посещение значительно увеличилось, что заметно по графику, например, за последние несколько месяцев. Увеличение трафика также уже заметно на первом месяце работы.

Подобные изменения происходят по ряду причин. Во-первых, - это уровень сайта, а именно количество страниц, вкладок, разделов, дополнительных опции. Например, крупные сайты с сотнями страниц и большими текстами платформа Google сканирует намного чаще, с регулярным обновлением контента до двух-трех раз в сутки. Низкие показатели сканирования зависят прежде всего от способа сканирования: автоматического или ручного. Так низкие показатели объясняются ручным режимом сканирования сайта. Выходом из этой ситуации и пожалуй одним из наиболее оптимальных является самостоятельная работа по продвижению, а именно размещение на сторонних сайтах внешних ссылок, это в свою очередь активизирует работу роботов платформы Google. Кроме того что бы увеличить трафик и рейтинг сайта можно применить канонические теги что-бы избежать дублирование контента и при этом получить более “уникальный” и структурированный список предлагаемых товаров, работ или услуг в поисковом результате. В итоги сотни запросов будут появляться, а поисковые роботы будут более активно обновлять и сканировать страницы сайта.

Увеличение трафика за счет просмотра страницы.

Как это сделать при помощи Google?

Это вопрос волнует каждого, кто хочет увеличить количество сканировании сайта с помощью роботов Google. В реальности сканирование может проходить по разному, так один сайт сканируется два-три раза в день, а другой игнорируется неделями и даже месяцами. Это не может не расстраивать, особенно при серьезных затратах на раскрутку сайта и нулевых результатах в итоге. Рассмотрим несколько способов повышения количества просмотров роботов платформы Google.

Ускорение загрузки и сокращения количества ошибок.

Оптимизировать работу роботов возможно и за счет улучшения работы самого сайта, а именно устранения ошибок при загрузки страниц или выявления битых страниц. Эти действия позволят быстрее загружать сайт и с ним работать. Так, например, если при загрузки сайта возникли какие-либо трудности, роботы соответственно будут его реже сканировать, а соответственно и об увеличение трафика и речи быть не может. Поэтому лучше потраться на хороший хостинг, чтобы получить отличный результат при его раскрутки.

На частоту сканирования влияет и время загрузки страницы.

Есть простой способ как оптимизировать этот показатель — при помощи опции «Ошибки сканирования». Данная функция позволяет отслеживать количество посещении и количество ошибок. При увеличение их числа можно воспользоваться обновлением страницы или обратиться к специалистам по созданию и продвижению сайтов.

Обновление сайта.

Не менее эффективный способ привлечения внимания роботов - это постоянное обновление сайта. Платформа Google устроенная так, что реагирует только на обновляемые серверы, сканирует их ежедневно, проводит индексацию в поисковиках, тем самым повышая привлекательность ресурса. Но это выгодно не для любых сайтов, так например, для портала новостей совсем не обязателен поток посетителей, а даже наоборот, слишком много клиентов мешает, затормаживает работу, что не скажешь про интернет-магазин. Что-бы избежать подобных проблем можно создать раздел с блогами или комментариями, который обновляется в той частоте, которая нужна роботам.

Создание внешних ссылок.

Подобный способ имеет два альтернативных эффекта: увеличение трафика и привлекательности ресурса или медленную работу или перегрузку сервера. Все будет зависеть от правильности его применения. Как правило, в первую очередь создатель сайта заботиться о размещение внешних ссылок на сторонних сайтах, не подозревая о том на какой именно ресурс может попасть информация. Так платформа Google без особого рвения работает с подобными сайтами и в все больше относится к этому с подозрением, воспринимая ссылки как спам. В случае покупки и размещения ссылок на совсем уже подозрительных сайтах, типа казино или порно сайтах, роботы не только перестанут посещать и сканировать ресурс, но и вовсе откажутся от его обслуживания. Если большее количество внешних ссылок будет размещено на надежных и проверенных сайтах, тем больше клиентов будет у Вашего ресурса и тем выше он будет в поисковых запросах.

Создайте для сайта карту Sitemap

По поводу данного способа ведутся споры относительно его эффективности. Но все же попробовать стоит. Для определения необходимости в сканирование того или иного ресурса роботы Google учитывают множество его аспектов, среди которых и навигация по сайту или его карта. Время загрузки, отсутствие ошибок и подозрительных внешних ссылок- это хорошо, но удобная карта сайта не только облегчит использование сайтами посетителями, но и работу роботов, указав на те разделы, которые необходимо просканировать. На карте можно отразить количество обновлении, что существенно увеличит частоту его сканирования роботами.

topseo.su

Продвижение web сайта: уникальный контент, привлечение целевой аудитории.

Большинство как умудренных опытом, так и начинающих интернет-маркетологов считают поисковые системы самым эффективным средством продвижения web сайта. Именно с поисковых систем приходит подавляющее большинство новых посетителей, даже когда интернет-ресурсом не проводится активной рекламной политики.

Достоинства данного способа:

Низкая стоимость – за добавление веб-сайта в отечественные, а так же в ряд зарубежных поисковиков не нужно платить денег.

Привлечение целевой аудиториии – людей, приходящих с поисковых систем, приводят определенные запросы. В случае грамотной работы с поисковой системой, вы привлечете именно того посетителя, любопытство которого вы сможете удовлетворить.

Постоянный приток новых клиентов-посетителей.

Недостатки данного способа:

Медленная работа поисковых систем. Одно дело – занести веб-сайт в поисковую систему, и совсем иное – дождаться его индексации. В ряде случаях временной промежуток между первым и вторым этапом достигает пары-тройки месяцев.

Сложность процесса оптимизации. В действительности, лишь кажется, что достаточно просто заполнить мета-теги нужными ключевиками, и толпа посетителей повалит на ваш ресурс. Тонкости есть при работе с каждым из множества поисковых роботов, и прежде чем выйти на лидирующие позиции по рейтинговым запросам, вы набьете множество «шишек».

Постоянно изменяющиеся алгоритмы сортировки результатов. Как следует из практики, есть смысл борьбы лишь за первое место, или, в крайнем случае – за места в первой двадцатке выдаваемых поисковых результатов. Программисты, которые работают над развитием поисковых роботов, часто ставят эксперименты с влиянием разнообразных факторов на точность поиска. Один из этих факторов изменится – и вот ваш ресурс уже внизу.

Не дремлют и конкуренты, в особенности, когда речь идет о наиболее популярных запросах. Для постоянного увеличения числа посетителей веб-сайта за счет поисковых систем, нужно отслеживать ваши позиции, а при их ухудшении, предпринимать необходимые меры.

Объем веб-сайта. Часто, наиболее действенный способ поисковой раскрутки сайта – это т.н. «наращивание» контента. Но создание наполненного ключевыми словами содержания требует определенных профессиональных навыков (например, журналистских).

Продвижение web-сайтов – один из наиболее эффективных и малозатратных способов, позволяющих привлечь целевую аудиторию.

http://blogto4ka.ru

Также рекомендую прочесть

blogto4ka.ru

Продвижение сайта при помощи статей

Сегодня публикация различного рода статей – один из наиболее эффективных способов в продвижении. На то есть несколько весомых причин.

1. Финансовое вложение в распространение статьи может быть сравнительно небольшим, так что, если статья написана интересно, ярко и «вкусно», она может привести на ваш ресурс пользователей, которые до сих пор не подозревали о существовании вашего сайта.

2. Так как в опубликованной статье присутствуют ссылки на ваш ресурс, ссылочный вес страницы возрастает, а это положительно влияет на позиции в поисковой выдаче.

3. Если есть возможность оставлять комментарии к публикации, у вас появится шанс связаться с пользователями, которые заинтересовались информацией, изложенной в статье. Можно индивидуально побеседовать с каждым и таким образом увеличить свой целевой трафик.

Этих правил стоит придерживаться, если вы публикуете статьи на сторонних ресурсах.

Публикация статей на собственном сайте

Главное, что стоит уяснить при продвижении веб сайта с помощью размещения на нем статей – создавать больше уникального контента. Для поискового робота ресурс, на котором информация регулярно пополняется и обновляется, причем эта информация создана «с нуля», - хороший кандидат в топ. Поисковый робот считает такой ресурс релевантным и соответственно отдает ему высокую позицию в списке выдачи.

Единственный недостаток раскрутки сайта с помощью публикации на нем статей – невозможность нарастить ссылочную массу. Так что в идеале лучше комбинировать оба способа: сперва размещать уникальные статьи на сайте, регулярно обновляя, а затем публиковать их на сторонних ресурсах со ссылками на исходный текст (т.е. на ваш сайт). Размещать статьи можно на сходных по тематике сайтах, договорившись с их вебмастерами, либо купить место для публикации на специализированных ресурсах.

Требования к статьям для поискового продвижения

Алгоритмы ранжирования у разных поисковых систем могут быть разными, но схожи они в одном – оказаться в топе выдачи может только ресурс с уникальным контентом. Уникальной статьей является, если она написана «из головы», «с нуля», и ее цена может быть довольно высокой, так как на написание тратится много времени и сил.

Впрочем, если бюджет невелик, можно прибегнуть к услугам рерайтеров, которые берут уже проиндексированные материалы и переписывают их «своими словами» так, чтобы уникализировать. Это возможно только в том случае, если рерайтинг выполняет профессионал, который может что-то добавить от себя и творчески отнестись к переработке информации, а не просто заменить слова синонимами.

Еще один вариант – использовать переводные статьи для продвижения сайтов. Тут требование таково, что перевод должен быть «вольным», не дословным (так как дословный перевод уже мог быть выполнен кем-либо ранее).

В любом случае, продвижение в поисковиках с помощью качественных статей всегда окупается.

seointellect.ru

Как создать правильный robots.txt для wordpress и joomla

Конечно же поисковые системы и сами неплохо справляются с индексацией сайта, то есть с закачиванием его страниц с целью в дальнейшем сделать их доступными для поиска, но чтобы ускорить и улучшить этот процесс, им нужно оказать небольшую помощь. Для этого используем правильный robots.txt, представляющий из себя обычный текстовый файл, который можно создать при помощи любого редактора, к примеру, wordpad или блокнота, но я бы вам посоветовал воспользоваться редактором notepad. Для чего нужен robots.txt? Все очень просто, при помощи этого файла можно указать поисковым роботам, какие страницы вашего сайта индексировать можно, а какие нельзя.В принципе, поисковики и так достаточно умны и сами в состоянии понять, какие файлы сайта не несут абсолютно никакой смысловой нагрузки, и исключить их из индекса, но для этого им потребуется больше времени, чем при наличии на сайте правильного robots.txt. Если данный файл присутствует, поисковые роботы в первую очередь закачивают и анализируют именно его, а уже потом на основе полученных инструкций постепенно индексируют весь сайт. Что такое robots.txt, мы с вами разобрались, теперь давайте поговорим о том, как он правильно пишется.

Как создать robots.txt

Как вы понимаете, в robots.txt нужно записывать определенные правила, при помощи которых можно управлять доступом поисковых роботов к содержимому сайта. Большинство сайтов создаются на готовых движках, так называемых cms. Штука очень удобная, так как совершенно не нужно быть программистом, чтобы создать вполне приличный сайт. Мы еще, кстати, не раз поговорим о многих современных движках для создания сайтов, поэтому ждите статей на эту тему. К примеру, этот блог, как вы уже догадались, создан на wordpress. Движок отличный, но он, как и многие другие, делает слишком много дублей контента в пределах одного сайта. Другими словами, одна и та же информация может быть доступна по разным адресам. К этому очень плохо относятся поисковики. Они любят уникальный контент. А когда в индекс попадают разные страницы с одним и тем же или похожим контентом, то уникальность конечно же снижается. Этого допускать нельзя. Чем полезнее и уникальнее контент вашего сайта, тем лучше к нему будут относиться поисковики. Что делать? Необходимо закрыть ряд страниц, которые не несут абсолютно никакой полезной информации пользователям, от индексации. Также необходимо закрыть доступ поисковым роботам к файлам и папкам движка. В этом нам поможет, как вы уже поняли, правильный robots.txt.

Все вебмастера хотят, чтобы их сайт проиндексировался как можно быстрее, но далеко не все из них что-либо делают для этого. Ведь разработать сайт и наполнить его контентом недостаточно, нужно его еще также правильно оптимизировать под поисковые системы. Если бы каждому владельцу сайта изначально было бы известно, как сделать robots.txt, и для чего этот файл нужен, то индексация и отношение поисковых систем к его сайту заметно бы улучшилась. Казалось бы, всего лишь один неприметный файлик, но на самом деле он может оказать заметное влияние на продвижение сайта в поисковых системах. Естественно существуют определенные правила написания robots.txt, которые сводятся к правильному оформлению специальных директив. О них и поговорим.

Директивы robots.txt

Для написания robots.txt используются директивы. Мы с вами разберем основные и самые важные из них. Первая директива, которая должна присутствовать абсолютно в каждом robots.txt, это «User-agent«. Она указывает, какому именно поисковому роботу предназначены следующие за ней инструкции. В качестве значения директивы используются названия роботов или звездочка «*», при помощи которой можно указать директивы для всех поисковиков. Googlebot и Yandex являются соответственно поисковыми роботами гугла и яндекса. Запись директивы «User-agent» выглядит следующим образом:

User-agent: * # для всех поисковых роботов Disallow: User-agent: Yandex # для поискового робота яндекса Disallow:

Символ «#» предназначен для написания комментариев. Все, что после него написано, поисковыми роботами не учитывается. Он помогает не запутаться в будущем в своих же записях, если директив слишком много, но такое бывает крайне редко. Как вы уже заметили, в примере появилась новая директива «Disallow«. О ней и поговорим. Именно при помощи этой директивы можно закрывать доступ роботов к определенным разделам сайта. К примеру, на вашем сайта есть папка «photo», в которой находятся ваши личные фотографии, но вы не хотите, чтобы они попадали в индекс поисковых систем. Тогда поступаем следующим образом:

User-agent: * Disallow: /photo/ User-agent: Yandex Disallow: /photo/

Теперь всем поисковым роботам доступ к содержимому данного каталога будет закрыт. Если на вашем сайте имеются какие-либо файлы и папки, названия которых начинаются с «photo», к примеру, «photo28», «photo1», «photo.html», «photo.img», и вы хотите закрыть от индексации и их, тогда записываем в robots.txt следующие строки:

User-agent: * Disallow: /photo User-agent: Yandex Disallow: /photo

Также существуют спецсимволы «*» и «$». Звездочка означает любую последовательность символов, в том числе и пустую. Приведу пример:

User-agent: * Disallow: *img

Теперь все файлы, имеющие расширение img, не будут индексироваться поисковыми роботами. В индекс не попадет ни mylove.img, ни yanamore.img. По умолчанию в конце каждого правила добавляется спецсимвол «*». То есть, если в robots.txt имеется запись Disallow: /photo, то, как мы уже говорили выше, в индекс не попадет ни один файл, чье название начинается со слова «photo». Чтобы это отменить, используем спецсимвол «$»:

User-agent: * Disallow: /photo$

Теперь поисковому роботу будет запрещен доступ к каталогу «photo», но не будет запрещен к файлу «photo.img».

Также существует директива «Allow«, о которой упоминается даже в Яндекс.Помощи, но используют ее крайне редко. Данная директива, в отличие от «Disallow», открывает доступ поисковому роботу к определенным файлам и папкам. Пример:

User-agent: Yandex Disallow: / Allow: /photo

Доступ поисковому роботу яндекса закрыт ко всему сайту кроме страниц, начинающихся с «photo». Раз уж мы сами к этому подошли, то приведу примеру того, как закрыть сайт от индексации. Все, что для этого нужно, это лишь пару строк в файле robots.txt.

User-agent: * Disallow: /

Теперь абсолютно всем роботам без исключения индексация сайта запрещена. Просто, не правда ли?

Существует еще такая директива robots.txt, как «Host«. При помощи нее можно указать для поискового робота яндекса главное зеркало вашего сайта. Даже если у него только одно зеркало, все равно не поленитесь и укажите данную директиву, к примеру, чтобы не вышло путаницы с www.

User-agent: Yandex Disallow: /photo Host: wp

Также очень полезна директива «Sitemap«, которая укажет путь поисковому роботу к карте вашего сайта, если она, конечно, существует.

User-agent: * Disallow: /photo Host: wp Sitemap: http://yaroslaff.su/sitemap.xml

Не забудьте поменять домен на свой.

После того как вы определитесь с директивами, вам останется лишь создать файл robots.txt и загрузить его в корневой каталог вашего сайта. Для этого можно воспользоваться протоколом FTP. Файл, как уже говорилось выше, представляет из себя обычный текстовый документ, заполнить который можно при помощи любого текстового редактора. Чтобы вы понимали, как он должен выглядеть, я приведу вам примеры правильного robots.txt для некоторых известных движков.

Правильный robots.txt для wordpress

Начну я с того движка, на котором создан мой блог и еще тысячи блогов и сайтов других вебмастеров. И так, robots.txt для wordpress должен выглядеть следующим образом:

User-agent: * Disallow: /cgi-bin/ Disallow: /wp-login.php Disallow: /wp-register.php Disallow: /xmlrpc.php Disallow: /razdel/ Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /wp-content/plugins/ Disallow: /wp-content/themes/ Disallow: /wp-content/cache/ Disallow: */trackback Disallow: /trackback Disallow: /feed Disallow: */feed Disallow: comments Disallow: trackback Disallow: /trackback Disallow: /feed Disallow: */feed Disallow: comments Disallow: trackback Disallow: /trackback Disallow: /feed Disallow: */feed Disallow: comments Disallow: trackback Disallow: /trackback Disallow: /feed Disallow: */feed Disallow: comments Disallow: /*? Disallow: /*?* Disallow: /?* Disallow: /?s= Host: site.ru Sitemap: http://site.ru/sitemap.xml

Конечно, нужно понимать, что в зависимости от сайта robots.txt может отличаться. Кто-то не закрывает категории и теги от индексации, а наоборот оптимизирует их и делает их содержимое как можно более уникальным. Некоторые закрывают от индексации содержимое временных архивов или картинки. Лично меня на данный момент полностью устраивает тот robots.txt, который я привел в качестве примера.

Правильный robots.txt для joomla

В принципе, стандартный файл robots.txt для joomla выглядит вполне себе прилично. Туда лишь стоит добавить отдельные директивы для поискового робота Yandex, продублировав их, и директивы «host» и «sitemap», и тогда получим что-то вроде этого:

User-agent: * Disallow: /administrator/ Disallow: /cache/ Disallow: /components/ Disallow: /images/ Disallow: /includes/ Disallow: /installation/ Disallow: /language/ Disallow: /libraries/ Disallow: /media/ Disallow: /modules/ Disallow: /plugins/ Disallow: /templates/ Disallow: /tmp/ Disallow: /xmlrpc/ User-agent: Yandex Disallow: /administrator/ Disallow: /cache/ Disallow: /components/ Disallow: /images/ Disallow: /includes/ Disallow: /installation/ Disallow: /language/ Disallow: /libraries/ Disallow: /media/ Disallow: /modules/ Disallow: /plugins/ Disallow: /templates/ Disallow: /tmp/ Disallow: /xmlrpc/ Host: site.ru Sitemap: http://site.ru/sitemap.xml

Здесь также стоит помнить о том, что robots.txt для вашего сайта на joomla может немного отличаться. К примеру, многие вебмастера открывают доступ поисковым роботам к папке с картинками images. В вашем случае тоже могут быть внесены в файл какие-либо коррективы. Но общий вид правильного robots.txt для joomla выглядит именно так.

Теперь вам известно, как создать robots.txt, для чего он нужен и как он правильно записывается. Ни в коем случае не пренебрегайте этим файлом. Он окажет исключительно благоприятное влияние на индексацию вашего сайта в поисковых системах. Удачи!

yaroslaff.su

Продвижение сайтов при помощи поисковой оптимизации (SEO)

Каждый, кто имеет хотя бы отдаленное отношение или интерес к интернет-проектам, слышал волшебное слово “SEO”. В переводе с англиского это означает “поисковая оптимизация” (“Search Engine Optimization”), т.е. теория и практика повышения привлекательности вебсайта для поисковых систем, таких как Google и Яндекс.

Прежде, чем вдаваться в подробности, подчеркнем пожалуй самый важный принцип поисковой оптимизации: Интернет — в том числе и поисковики, и твой сайт — существуют для пользователей и за счёт пользователей. Поэтому “мнение” поисковых систем о твоём сайте напрямую зависит от его привлекательности и удобства для посетителей.

Уже давно канули в лету времена, когда при помощи нехитрых приёмов можно было “обмануть” поисковики, заставив ранжировать свою страницу выше остальных при минимальных затратах времени, сил и средств. Подобные методы сейчас считаются “черным” SEO (“black-hat SEO”) и могут не только не принести никакой пользы, но и серьезно навредить твоему сайту. Постоянно эволюционируя, поисковые роботы стали чуть ли не такими же умными, как Skynet из “Терминатора”, и не только видят насквозь все уловки новичков, но и могут, скажем, отличить грамотно составленную статью от некачественной (не говоря уже про уникальность текстов).

Итак, целью современного SEO является не обмануть или обыграть поисковые системы, а создать удобную и информативную среду для пользователей, а также правильно позиционировать свой сайт для поисковых систем, достигая максимально высокой позиции в поисковых выдачах по целевым запросам.

Что влияет на мнение поисковых систем:

  • Содержимое: качество и читабельность текста, соответствие его тематике, а также заголовки и описания, используемые в коде страницы
  • Скорость: насколько быстро загружаются страницы твоего сайта
  • Авторитетность: ссылаются ли другие авторитетные сайты на твой ресурс
  • Удобство: как выглядит сайт и вызывает ли доверие у посетителей, насколько легка и логична навигация по сайту

Что не уважают посковые системы:

  • Перенасыщенность: умышленное использование максимального количества ключевых слов по всему тексту без учета удобства читателя
  • Платные ссылки: массовая покупка низкокачественных ссылок для своего сайта
  • Нечитабельность: запутанный, слишком короткий или очень длинный текст
  • Неудобный интерфейс: слишком много рекламы на странице, непродуманная иерархия страниц сайта, непродолжительное среднее время пребывания на странице

Из вышеприведенных принципов несложно сделать вывод, что основной целью любой поисковой оптимизации должно быть создание высококачественной и полезной для пользователей информации. Для удобства все методики SEO часто разделяют на две группы: оптимизацию самого сайта (on-site SEO) и оптимизацию вне сайта (off-site SEO). Ниже приведены базовые принципы каждого из направлений поисковой оптимизации.

Оптимизация на сайте

1. Создавай полезную для людей информацию.Каждый текст на твоём сайте должен быть написан вручную, с максимальным вниманием к стилю, грамматике и структуре. Как уже упоминалось выше, современные поисковые алгоритмы с лёгкостью отличают качественный текст от некачественного — и учитывают эти данные в ранжировании страниц. Однако даже если абстрагироваться от поисковиков — качественное содержимое гораздо больше нравится посетителям и они с большей вероятностью вернутся на твой сайт в будущем, а другие ресурсы будут чаще ссылаться на твою страницу, добавляя авторитетности и посылая к тебе новых посетителей (т.н. “трафик”).

Не пытайся искусственно насытить текст ключевыми словами — качественно написанный и продуманный тематический текст сам собой будет содержать достаточное количество нужных терминов (у тебя навряд ли получится написать статью о поисковой оптимизации, не используя ни разу сочетание “поисковая оптимизация”!) .

2. Придумай оригинальный заголовок.Заголовок страницы в идеале должен включать ключевое слово или фразу, актуальные для данной страницы — однако не перебарщивай с “оптимизированием” и не пытайся засунуть ключевые слова в заголовок в ущерб смыслу или читабельности — иначе сделаешь только хуже, а в добавок еще и отпугнёшь читателей.

3. Используй уникальные мета-данные.Посетители сталкиваются с мета-данными (т.е. “информацией об информации”) еще на стадии поиска — выделенный заголовок любой поисковой выдачи берется из мета-заголовка страницы, а короткое описание под ним — из мета-описания. Более того, мета-заголовок отображается как название вкладки браузера, а также используется, если страница добавляется пользователем в закладки. Теперь понимаешь, почему это так важно!

Позаботься о том, чтобы мета-данные на каждой странице были читабельными, имели прямое отношение к своей странице (а еще лучше — содержали ключевое слово) и не повторялись. В случае с мета-заголовками постарайся уложиться в 65 символов и 15 слов (первый стандарт использует Google, а второй — Яндекс), иначе поисковоки обрежут твой заголовок, что всегда выглядит менее привлекательно. Если твоя система управления сайтом не поддерживает ручное добавление мета-данных по умолчанию, найди и установи соответствующий плагин (например, для WordPress одним из самых популярных является All in One SEO).

4. Используй изображения.Картинки привлекают внимание — не упускай шанса увеличить время пребывания посетителей на своем сайте! Для максимального эффекта переименуй файлы с изображениями так, чтобы названия совпадали с ключевыми словами, а также используй ключевые слова в alt-тексте и описании.

5. Регулярно создавай свежий контент.Чем чаще на сайте обновляется и дополняется информация, тем чаще к нему будут возвращаться как посетители, так и поисковые роботы, что обеспечит более быструю индексацию новых страниц. Кроме того, свежие тексты на новые темы расширяют базу ключевых слов, по которым твой сайт участвует в поиске.

6. Обрати внимание на адреса страниц (URL).Здесь важно быть последовательным — прежде всего: используй либо подкаталоги (example.ru/awesome) либо субдомены (awesome.example.ru). Также позаботься о том, чтобы адрес без приставки “www” (example.ru) перенаправлял посетителей на www.example.ru — или наоборот, иначе поисковики будут рассматривать их как два разных сайта, что приведет к “разбавлению” веса каждого из них (о том, как настроить переадресацию, читай в нашей статье).

Старайся использовать ключевые слова и фразы в URL-адресах страниц (например,example.ru/osnovy-seo) — это заработает тебе дополнительных очков в ранжировании, да и пользователям будет проще. Самый простой способ получить правильное транслитерирование — ввести фразу на русском в Google Переводчик; под полем ввода появится искомая информация.

Оптимизация вне сайта

7. Наращивай “ссылочную массу”.Получение входящих ссылок (т.е. ссылок с других сайтов на твой сайт) часто понимается как главный и чуть ли не единственный метод поисковой оптимизации. Ссылочная масса, безусловно, очень важна для ранжирования результатов поиска — и вряд ли потеряет свое значение в будущем, однако важно усвоить, что в этой области качество уже давно стало гораздо важнее количества.

Сегодня гораздо лучше иметь 10 входящих ссылок (для англофилов — “бэклинков”) с авторитетных ресурсов и интегрированных в текст тематической страницы — чем 100 “голых” ссылок в “подвале” страницы с некачественных страниц и сайтов-однодневок. Каких ссылок стоит по возможности избегать при целенаправленном наращивании ссылочной массы:

  • Ссылки вне текста, например, в боковом блоке или в “подвале”
  • Слишком много ссылок с одинаковым якорным текстом (т.е. текстом ссылки), если только это не название твоего сайта или бренда
  • Ссылки из комментариев
  • Ссылки с форумов
  • Ссылки с низкоавторитетных и некачественных сайтов, особенно ссылки с заблокированных поисковыми системами сайтов
  • Ссылки со всех бесплатных (и большинства платных) каталогов сайтов, которые не содержат никакого другого полезного контента кроме списков ссылок

Наиболее безопасными способами наращивания ссылочной массы являются создание и продвижение уникального и полезного содержимого (т.н. content marketing), а также гостевые статьи/страницы в других авторитетных блогах и онлайн-журналах.

8. Не забывай про социальные сети.В эпоху социальных сетей серьезная SEO стратегия вряд ли может обойтись без уделения должного внимания данному феномену Интернета. Поисковые системы всё активнее включают показатели социальной активности (количество перепостов, “мне нравится”, лайков, ретвитов и так далее) в свои алгоритмы. Логика здесь простая — если контент вызывает высокую социальную активность, значит он интересен пользователям, а значит и поисковикам.

Стоит задуматься над расположением кнопок популярных социальных сетей (в т.ч. вКонтакте, Facebook, Twitter, Одноклассники, Профессионалы.ру, LinkedIn) на страницах своего сайта, где это уместно. Помимо улучшения среди поисковиков, высокий резонанс в социальных сетях поможет привлечь на твой сайт дополнительный и бесплатный трафик.

neplankton.ru

добавление сайта в поисковики, robots.txt

Грамотная и своевременная раскрутка - это очень хорошо и правильно. И ей обязательно надо заниматься. Но при этом следует четко понимать в какой именно момент её начинать и с чего.Не буду попусту заниматься морализаторством и надеюсь у вас после вводной статьи в голове и нет таких мыслей, как и желания спустить деньги, время и усилия на раскрутку не  вовремя.

Начинать раскрутку всегда стоит с анализа своего сайта и аудитории. Не всегда хорошая раскрутка - это оккупация поисковой выдачи. SEO  - это всего лишь один из методов продвижения в интернете.

Самое простое и первое, с чего стоит начать в рамках SEO - это добавить сайт в поисковые машины для индексации. Это вовсе не значит, что завтра его проиндексируют, а послезавтра он появится в выдаче на первых позициях. Но сообщить им о сайте уже можно - индексация процесс не самый быстрый, а достижение топовых позиций в серпе (SERP - "search engine results page", страница поисковой выдачи) еще длительнее.Поисковики обычно узнают о новинках в сети двумя способами - либо индексируя какой-то сайт, находят на нем ссылку на ваш  ресурс и идут проверять, чего ж там такого появилось, либо вебмастер сам, при помощи специальных сервисов сигнализирует, что к нему надо зайти, проиндексировать.Самый частый вопрос, касающийся раскрутки uCoz-сайтов, это карантин. Карантин - это запрет на индексацию сайта поисковыми ботами. В системе он составляет 30 дней с момента создания сайтов. Причин для его существования несколько: первая, это, то что с введением карантина на  Юкозе перестали создавать в огромных количествах дорвеи - бессмысленные сайты направленные исключительно на SEO-цели. И вторая - это защита от преждевременной индексации пустого сайта: попав на пустой сайт, поисковик индексировал страницы, практически без контента и второй раз заходил на сайт очень-очень не скоро.

Для грамотного общения с поисковиками у каждого вашего сайта существует специальный файл robots.txt. Найти и посмотреть его можно по адресу:

 http://вашсайт.ucoz.ru/robots.txt

В нем описываются правила для поисковых ботов (боты - это инструмент поисковой машины, при помощи которых она собирает информацию о страницах в сети). Подробно о директивах можно прочитать вот тут. Если кратко, то в нем описано какие страницы можно заносить в индекс (для последующей выдачи в результате поисковых запросов), а какие нельзя. "Почему это нельзя?!" -  Можете возмутиться вы,  - "Пусть будет весь мой сайт!" - И окажетесь не правы. На сайте присутствуют служебные страницы, например, такие как вход-выход, регистрация пользователей  и если поисковик будет их запоминать, то может пропустить что-то ценное в свой приход. (Так как заходя на сайт поисковый паук может "уволочь" с собой в индекс только ограниченное кол-во страниц, а не весь сайт).

Robots по умолчанию разработан таким образом, что поисковикам скармливаются только страницы с осмысленным содержимым. И редактировать его не рекомендуется, особенно, если вы не особо понимаете, что делаете.

Для нового сайта robots.txt выглядит вот так:

User-agent: * Disallow: /

По истечению карантина файл автоматически обновляется и можно начинать любые меры по раскрутке.Выглядит он вот так (на примере robost.txt для этого блога, светло серым дана расшифровка каждой строчки):

User-agent: *Disallow: /a/Disallow: /stat/Disallow: /index/1Disallow: /index/2Disallow: /index/3Disallow: /index/5Disallow: /index/7Disallow: /index/8Disallow: /index/9Disallow: /panel/Disallow: /admin/Disallow: /secure/Disallow: /informer/Disallow: /mchatDisallow: /search

Sitemap: http://blog.ucoz.ru/sitemap.xmlSitemap: http://blog.ucoz.ru/sitemap-forum.xmlSitemap: http://blog.ucoz.ru/sitemap-shop.xml

Всем поисковым ботамне индесировать страницу обработки ошибок страницне индексировать статистикуне индексировать служебную страницуне индексировать служебную страницуне индексировать служебную страницуне индексировать служебную страницуне индексировать каталог аватаровне индексировать профиль пользователяне индексировать страницу "Доступ запрещен"не индексировать админ-панельне индексировать страницу входа в админ-панельне индексировать служебную страницуне индексировать список информеровне индексировать миничатне индексировать страницу в результатами поиска по сайту

адрес карты сайтаадрес отдельной карты сайта для форумаадрес отдельной карты сайта для магазина

Прикрепленный домен не снимает карантина. Если вы уверены, что ваш сайт полностью готов, а прошло только, к примеру, 17 дней после создания - вы можете обратиться в службу поддержки - и если это действительно так, то карантин вам снимут. При оплате услуги, дороже $2 - robots.txt становится доступным для редактирования.

А теперь немного конкретных ссылок:

Для того чтобы добавить сайт в базу Яндекса (по сути, позвать его ботов исследовать ваш сайт) можно пойти по 2-м путям. Первый - простой. Ввести свой URL на странице:

Второй посложнее, но рекомендую вам именно его. Это зарегистрироваться в сервисе  Яндекс.Вебмастер и уже через него добавить сайт на индексацию.В этом случае вы будете видеть статистику по страницам в индексе и указание на проблемы, если они вдруг возникнут. Так же этот сервис предоставит вам полную статистику (после нехитрой процедуры подтверждения прав на сайт) о точках входа-выхода, позициям в серче, поисковым словам, по которым к вам заходят и еще массу полезных сведений:

Аналогичные сервисы есть и у Google.Для добавления своего сайта, воспользуйтесь вот этой страницей.

Так же полезно изучить инструментарий для вебмастеров, предоставляемый  Google.

На этом самую первую статью о самых частых вопросах про поисковики предлагаю считать законченной, если что-то осталось непонятным - задавайте вопросы в комментариях.В следующей статье будет рассказано про sitemap, про добавление частей сайта (блог, форум) в поиск по блогам и про правильную верстку для оптимизации для поисковых машин.

blog.ucoz.ru

Поисковая оптимизация | База знаний Платформы LP

Важно! Страница которая находиться на бесплатном тестовом поддомене и имеет окончание «******.plp7.ru» не индексируется. Для индексации необходимо прикрепить домен к странице.

Содержание статьи:

  1. Поисковая оптимизация
  2. Индексация в Яндексе
  3. Индексация в Google
  4. Заголовок, описание и ключевые слова
  5. Работа с файлами sitemaps и Robots.txt

Поисковая оптимизация

Поисковая оптимизация сайта (поисковое продвижение сайта, раскрутка сайта, SEO – SearchEngineOptimization) – это комплекс мер для повышения позиций сайта в результатах выдачи поисковых систем по заранее отобранным запросам.Если сайт не оптимизирован – он не будет показан на страницах Яндекса или Гугла.

В этой статье Вы узнаете о первых и главных шагах в оптимизации сайта. Узнаете, как добавить сайт в Яндекс и Google.Сможете настроить заголовок, описание и ключевые слова для страницы.

Индексация в Яндексе

Индексация сайта – наличие страниц сайта в базе поисковых систем. Для того что бы сайт стал проиндексирован, необходимо, чтобы на него зашёл поисковой бот.И помните, что добавить можно только полноценный домен, на бесплатных адресах формата xxxx.plp7.ru индексация отключена.

Шаг 1.

Важно!Если у вас нет аккаунта на Яндексе – обязательно зарегистрируйтесь. Аккаунт пригодится для Яндекс.Метрики.

5-1

  • Впишите доменное имя сайта и нажмите кнопку «Добавить».

5-2

Шаг 2.

  • Копируйте появившийся мета-тег;

5-3

Шаг 3. Вернитесь на Платформу, перейдите в раздел «Страницы», выберите нужную станицу и откройте ее «Настройки».

1000508

Шаг 4. Откройте раздел «Плагины» и нажмите «Добавить плагин»

1000509

Шаг 5. Добавьте плагин «Яндекс подтверждение прав» и вставьте полученный ранее мета-тег в поле «Код подтверждения Яндекс»1000510

Нажмите «Сохранить».

Шаг 6.

  • Подтвердите действие в Яндекс.Вебмастере;
  • Вернитесь на страницу Вебмастера и нажмите кнопку «Проверить».

5-5

Индексация завершена, теперь Ваш сайт появится в Яндексе.Чтобы узнать больше, заходите в инструкцию вебмастера.Индексация занимает от 3 до 21 дней. Если через 21 день сайт так и не появился в поиске – напишите в службу поддержки.

Индексация в Google

Шаг 1.

Важно!Если у Вас еще нет аккаунта в Google – зарегистрируйтесь. Это пригодится при подключении Google Analytics – сервиса для сбора статистики;

  • Впишите доменное имя в появившемся окне.
  • Нажмите на «Добавить».

5-6

Шаг 2.

  • Скопируйте тег HTML;
  • В появившемся окне выбирите вкладку «Альтернативные способы»;
  • Поставьте галочку напротив «Тег HTML»;
  • Скопируйте код.

%d1%81%d0%ba%d1%80%d0%b8%d0%bd%d1%88%d0%be%d1%82-2016-11-05-05-04-56

Шаг 3. Вернитесь на Платформу, перейдите в раздел «Страницы», выберите нужную станицу и откройте ее «Настройки».

1000508

Шаг 4. Откройте раздел «Плагины» и нажмите «Добавить плагин»

1000509

Шаг 5. Добавьте плагин «Google подтверждение прав» и вставьте полученный ранее мета-тег в поле «Код подтверждения Google»1000511

Нажмите «Сохранить».

Индексация завершена. Теперь сайт появится в Google.Чтобы узнать больше, заходите в справочный центр.Индексация занимает от 3 до 21 дней.Если через 21 день сайт так и не появился в поиске – напишите в службу поддержки.

Заголовок, описание и ключевые слова

Откройте настройки страницы и выберите вкладку «Поисковая оптимизация».Заполните пустые поля, следуя рекомендациям ниже.

1000512

 

Заголовок – текст, который отображается во вкладке браузера и в результатах поиска.

%d1%81%d0%ba%d1%80%d0%b8%d0%bd%d1%88%d0%be%d1%82-2016-11-05-05-09-55

5-8

Подберите короткий, ёмкий и максимально точный заголовок для Вашей страницы.Заголовок – это «лицо» сайта, поэтому пишите кратко и понятно.Максимальная длина заголовка – 80 знаков. Рекомендуем уложиться в 60-75.

Описание – текст, который отображается под заголовком сайта.

5-9

Создайте привлекательное, продающее описание сайта.Максимальная длина – 200 знаков.Рекомендуем уложиться в 150-180, т.к. длинные описания обрезаются поисковым роботом и отображаются некорректно.

Ключевые слова – слова, по которым пользователь находит сайт.Пример:Вы продаете шкафы – определите, по каким запросам он выйдет на продавца.Чтобы определить ключевые слова, воспользуйтесь Яндекс.Wordstat или наймите seo-программиста.

5-10

Добавьте ключевые слова и фразы через запятую. Максимальная длина – до 250 знаков.Сделайте упор на первые 150, самые «нужные» и эффективные фразы поставьте в начало.В итоге поле с ключевыми словами может выглядеть так: «купить шкаф в Москве, шкаф из сосны, московская фабрика мебели» и т.п.

Работа с файлами sitemaps и Robots.txt

SitemapsSitemaps — XML-файлы с информацией для поисковых систем (таких как Google, Яндекс, Bing, Поиск@Mail.Ru) о страницах веб-сайта, которые подлежат индексации.

Sitemaps могут помочь поисковикам определить местонахождение страниц сайта, время их последнего обновления, частоту обновления и важность относительно других страниц сайта для того, чтобы поисковая машина смогла более разумно индексировать сайт.

Подробную схему описания sitemaps можно найти на этой странице – https://www.sitemaps.org/ru/protocol.html

Robots.txtRobots.txt —текстовый файл в формате .txt, ограничивающий поисковым роботам доступ к содержимому на http-сервере.Может использоваться для частичного управления индексированием страницы поисковыми системами.

Файл состоит из набора инструкций, при помощи которых можно указать страницы, которые не должны индексироваться или должны быть проиндексированы в первую очередь.Для правильной настройки рекомендуем использовать рекомендации от Яндекс (https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml#what-is-robots-txt) и Google (https://support.google.com/webmasters/answer/6062608?hl=ru&ref_topic=6061961)

Прописать sitemaps и robots.txt можно в настройках страницы, во вкладке «Поисковая оптимизация»:

1000513

Как исключить секцию из индексации?

Важно! Страница которая находиться на бесплатном тестовом поддомене и имеет окончание «******.plp7.ru» не индексируется. Для индексации необходимо прикрепить домен к странице.

Если мы хотим, чтобы определённая секция не индексировалась поисковыми системами, то её можно исключить из индексации.Для этого перейдём в “Стили секции” во вкладку “Параметры” и установим галочку “Исключить из индексации”1000019 1000020

Как исключить страницу из индексации в поисковых системах?

Важно! Страница которая находиться на бесплатном тестовом поддомене и имеет окончание «******.plp7.ru» не индексируется. Для индексации необходимо прикрепить домен к странице.

Если мы хотим, чтобы определённая страница не индексировалась поисковыми системами, то её можно исключить из индексации.

Для этого перейдём в «Настройки страницы»

1000914во вкладку «Поисковая оптимизация» и добавим в поле «Robots.txt» код :

User-agent: * Disallow: /

 

User-agent: *

Disallow: /

 

1000913Если мы хотим, чтобы страница индексировалась всеми поисковиками, то поле «Robots.txt» можно оставить пустым.

 

help.platformalp.ru


Смотрите также