Форум о защите от: хакеров, взлом, раскрутка, хакер, вирусы, взлом программы, взлом паролей, взлом вконтакте, взлом icq, раскрутка сайта, взлом скачать, взлом почты, взлом ru, проги взлома, хакер, программа взлома, трояны, программирование
http://forum.ahack.ru/

Правила дизайна и технические рекомендации Google.
http://forum.ahack.ru/topic1437.html
Страница 1 из 1

Автор:  VKONTAKTE_HACKER [ 29-12, 16:58 ]
Заголовок сообщения:  Правила дизайна и технические рекомендации Google.

Правила Google количество 2.
Немного информации от первоисточника, многие к сожалению пренебрегают ее рассмотрением.

By Google
http://www.google.ru/support/webmasters ... swer=35770
Правила дизайна и подбора содержания

Создайте сайт с четкой иерархией и текстовыми ссылками. На каждую страницу должен быть переход вообще бы по одной статической текстовой ссылке.
Составьте для пользователей карту сайта со ссылками на его важные разделы. Если в ней окажется больше либо немногим менее ста ссылок, вероятно, удобнее будет расшибить ее на немного отдельных страниц.
Сделайте сайт полезным и информативным. Страницы должны включать четкое и точное очерчивание содержания.
Подумайте, по каким ключевым словам пользователи будут разыскивать Ваши страницы, и включите данные слова в контент на сайте.
Старайтесь произвести так, чтобы важные имена и названия, иное содержание и ссылки представляли собой контент, а не изображения. Сканер Google не распознает контент, содержащийся в изображениях.
Следите за тем, чтобы теги TITLE и ALT были точными и информативными.
Убедитесь в том, что все ссылки работают. Проверьте правильность кода HTML.
Если Вы решите применять динамические страницы (то есть такие, в URL которых держится символ \"?\"), учтите, что не все \"пауки\" поисковых систем сканируют динамические страницы так же благополучно, как и статические. Это поможет сократить габарит и численность параметров.
Не размещайте на одной странице чересчур хоть отбавляй ссылок (не больше 100).

Технические рекомендации.

Используйте для проверки сайта текстовый браузер, в частности, Lynx, вследствие того что что большинство \"пауков\" поисковых систем видят сайт точь-в-точь так же, как Lynx. Если из-за таких замысловатых ухищрений, как JavaScript, cookies, идентификаторы сеансов, фреймы, DHTML либо Flash, просмотреть весь сайт с помощью текстового браузера не удается, то и \"паукам\" поисковых систем, быть может, будет тяжело его сканировать.
Разрешите поисковым роботам сканировать Ваши сайты без идентификаторов сеансов и без аргументов, которые позволяют отслеживать пути их передвижения по сайту. Эти инструменты полезны для отслеживания поведения конкретного пользователя на сайте, но роботы посещают сайты совсем по иному. Использование данных инструментов может привести к неполной индексации сайта, потому как роботам не неизменно удается вытурить URL, которые выглядят по-разному, но на самом деле ведут на одну и ту же страницу.
Убедитесь, что веб-сервер поддерживает заголовок HTTP If-Modified-Since. Он позволит серверу уведомлять Google, изменилось ли содержание со времени прошлого сканирования. Поддержка данной функции сэкономит Ваш трафик и накладные расходы.
Воспользуйтесь размещенным на веб-сервере файлом robots.txt. Он сообщает сканерам, какие каталоги позволительно сканировать, а какие не разрешено. Следите за актуальностью содержания данного файла, чтобы невзначай не заблокировать сканер поискового робота Google. Инструкции о том, как одаривать указания роботам, сканирующим сайт, приводятся на сайте http://www.robotstxt.org/wc/faq.html.
Если Ваша фирма решит получить систему управления содержанием, проверьте, может ли она экспортировать содержание, чтобы разрешить \"паукам\" поисковых систем его сканировать.
Не используйте в качестве параметра в URL \"&id=2006\", ибо такие страницы мы не индексируем.

Страница 1 из 1 Часовой пояс: UTC + 3 часа
Powered by phpBB® Forum Software © phpBB Group
http://www.phpbb.com/