Вход Регистрация
Файл: servises/seo/poptim.php
Строк: 19
<?
require'../../shaxty.php';
$align='left';
check_login();
$title='Оптимизация сайта под поисковики';
include_once (
H.'shaxty/head.php');
echo 
'<br />';

echo 
'

<b>Вступление</b><br/><br/>

Пишу эту статью потому, что адекватной информации и статей на эту тему практически нет, а в вапе темболее. А те которые есть, в большинстве своем, морально устарели и делать какой либо упор на то что в них написано не советую. В этой статье я сначала расскажу о тех вещах, которые с течением времени не потеряют своей актуальности, о какой поисковой машине не шла бы речь. И постепенно буду переходить к вещам которые больше зависят от текущей реализации поисковых алгоритмов для поисковой оптимизации Ваших сайтов.
<br/><br/>
<b>СИСТЕМЫ ПОИСКОВИКОВ </b><br/>
<i>Общее</i><br/><br/>

Что же это на самом деле такое? Для тех кто с этим не знаком, обьясняю: Поисковики (искалки,SE-searching engines) - это попросту говоря громадные монсты пытающиеся занести в свой индекс (базу данных) все сайты которые есть в интернете. Зачем это нужно? Дело в том что сайтов каждый день рождаются многие сотни и даже тысячи. И все это нужно както упорядочивать, если мы хотим чтото в интернете найти. "да нафиг" скажете вы, есть же для этого каталоги!
Но представте себе каких размеров должен быть каталог вмещающий все сайты интернета. А удобство поиска в нем? Милиарды категорий с трилиардами подкатегорий. Думаю не оч удобно. Проще просто ввести интересующий вас запрасов в строку поиска и поисковик выдаст вам все сайты в которых по этому поводу чтолибо имеется. Ах,да,ведь эти строки впервую очередь для тех кто не знает что такое поисковик, вот: <br/>

<a rel="nofollow" href="http://yandex.ru">Http://yandex.ru</a><br/>
<a rel="nofollow" href="http://google.ru">Http://google.ru</a><br/>
<a rel="nofollow" href="http://rambler.ru">Http://rambler.ru</a><br/><br/>

Сходите,посмотрите,пощупайте. А потом возвращайтесь сюда.

Начало подобных поисковых систем уходит в далекие 90-е ,поисковики перекочевали из локальных информаториев со своими базами данных во всемирную сеть. По началу были довольно убогими и обмануть их не стоило особого труда. А сейчас это многомилионные корпорации годовой бюджет которых можно сравнить с бюджетом небольшой африканской страны. А поисковые алгоритмы хранятся в строжайшем секрете,и програмистам которые уходят от них скорее всего стирают память)<br/>
На данный момент поисковики являются настоящими диктаторами условий в Web-пространстве. Все поголовно подстраиваются под них пытаясь хоть както повысить свои позиции в результатах выдачи, платят баснословные деньги оптимизаторам которые предоставляют услуги поисковой оптимизации сайтов. А начинающие оптимизаторы проводят бессонные ночи пытаясь методом проб и ошибок уловить хоть какието закономерности в поведении поисковиков. Много,ох много слез пролито над клавиатурами начинающих SEO-шников. (Searching engine optimization)<br/><br/>

Актуальна ли поисковая оптимизация для Wap-сайтов? <br/><br/>

Ответ однозначен - ДА! <br/>

Начнем с того что по статистике (а статистика вещ упрямая) посещаемость таких поисковиков как Гугл и Яндекс (далее Яша) около 8.000.000 человек для каждого, и это только в русскоязычном сегменте. И цифра эта никак не собирается уменьшатся, наоборот. Поискови имхо рулят и будет так аж до тех пор пока в мире информационных технологий не произойдет настоящей революции или все человечество не перейдет на качественно новый уровень сознания.

Едем дальше. Почемуто бытует мнение что все эти оптимизаторские навороты имеют смысл только для Веб-сайтов. Глупасть какайа! Поисковику абсолютно плевать на вашу разметку, он индексирует текст. И будьте уверены если ваш сайт в индексе и вы сошлетесь на какойнибудь файл с расширением .txt или даже .doc ,то путевый поисковик проиндексирует и его. Даже не сомневайтесь. Так что такое мнение из быта вап-мастеров нужно искоренять.

Другие скажут "та ладна тебе Морбит,не гони,в вебе на этом собаку сьели и нам за ними не угнаться,всеравно будем плестись гдето в хвосте по выдаче" - если ничего не делать конечно будем, здесь я раскажу большую часть того о чем знаю. И следуя методикам которые будут освещены в этой теме позже, вполне реально вывести вап-сайт в топ поисковой выдачи.
Дело это не простое, и если комуто лень этим заниматься или нет времени - платите денешку оптимизаторам, а если "жили както раньше без ваших поисков,авось и ща не пропадем",то дальше не читайте, закройте эту бесполезную и брехливую тему, и идите как и раньше в свой любимый клик-клуб, бесконечно ищите всяческие каталоги с хорошо накрученой отдачей, и так далее. А мы займемся поисковой оптимизацией наших сайтов. <br/><br/>

<b>РАБОТА ПОИСКОВИКОВ И ИХ СТРУКТУРА</b><br/><br/>

Если говорить упрощенно, то поисковик можно условно разделить на 3 части: <br/><br/>

1) Индекс (база) - собственно огромная база данных где хранятся частичные копии страниц ваших сайтов и все ссылки на них имеющиеся. <br/>

2) Поисковые роботы (пауки) - это именно то что отличает поисковую машину от каталога. Они сами бегают по просторам Инета и без спроса добавляют ваши сайты в свой индекс. Представляют собой не что иное как обычные программы, скрипты работающие с сокетами. Пауки бывают самые разнообразные,одни ищут и индексируют тексты,другие картинки,третьи проверяют на сколько контент уникален, четвертые проверяют зеркала и бог его знает что еще,не так важно. Стоит отметить что все роботы имеют свое имя и ip (которые могут меняться). Поищите, гдето на сайте у Armer"a была интересная вырезка из какогото форума как один админ пытался забанить паука,думая что это хакер там лазит и чета хочет поломать. <br/>

3) Каталог - многие поисковики имеют в своем штате собственные,хорошо модерируемые каталоги. В некоторых поисковиках наличие вашего сайта в их каталоге влияет на результаты выдачи, в не которых нет. Со стопроцентной уверенностью можно сказать одно - если и влияет,то очень не значительно (у нормальных искалок). <br/><br/>
Так зачем же тогда эти каталоги нужны? Дело в том что для определения релевантности страницы,с некоторых пор, наличия искомого текста и ссылок с других ресурсов стало недостаточно. И поисковики ввели такое понятие как близость тематики ссылающихся друг на друга сайтов. Так вот из своих каталогов поисковики основы этой тематичности и берут. <br/>

Некоторые поисковики имеют собственные каталоги и рейтинги, некоторые испльзуют чужие (гугл), а некоторые даже не имеют своего индекса!!! А используют чужой (MSN как ни странно).<br/><br/>

<b>Жмем на кнопку "Поиск"!</b> <br/><br/>

Так что происходит когда вы вводите интересующий вас вопрос в строку поиска и нажимаете кнопачку "Поиск"? <br/><br/>

В общих чертах происходит примерно следущее: <br/>

1)Поисковик разбивает ваш запрос на семантические составляющие-словосочетания из 2х,3х,4х и тп слов,опуская (или не опуская) стоп слова (знаки препинания,союзы,предлоги и прочие мелкие части речи), и даже дбробит отдельные слова,отбрасывая или меняя в них окончания, суффиксы и еще хз что там бывает.<br/>

2) Пробивает по своей базе наличие всех этих кусочков и гдето у себя в "уме" ставит галочку возле страничек которые их содержат.
Потом начинает их (странички) у себя в "уме" упорядочивать и хитро сортировать. Первыми в этом списке окажутся те, кто содержит текст вашего запроса целиком,потом те которые в меньшей мере. <br/>

3) Потом среди равных по точности соответствия запросу тоже производит перетрубацию. И на первые места выходят странички в которых вхождений искомого текста больше чем других (лимитированно), также смотрит на наличие искомого текста в теге &lt;title &gt; и других, также множество внешних факторов влияющих на релевантность документа,например коли4ество ссылок извне. И еще много-примного заморочек о которых будет расказано позже. <br/><br/>

И наконец после всех этих манипуляций мы наблюдаем на своем экраничиге десятку лучших, по мнению поисковой машины, страничек из всего что поисковик за время своего существования успел наиндексировать.
Тоесть самые "релевантные" документы. <br/>

*все выше сказанное - чистой воды эмпирика. Но примерно это так. Еслиб я на самом деле знал алгоритмы я был бы уже мертв или сказочно богат) <br/><br/>

<b>Релевантность </b><br/><br/>

В общем смысле понятие Релевантность - это степень соответствия "чегото" требуемому или желанному результату. <br/>

Но более менее четкое определение релевантности в контексте поисковой оптимизации достаточно сложно.
В идеале поисковик должен выдавать юзверю то что тот ХОЧЕТ увидеть. Но ничего идеально не бывает,поисковик не телепат и мысли посетителей читать не может,да и некоторым пользователям стоило бы подучиться правильно формулировать запросы,а в некоторых случаях просто подружиться с головой. <br/><br/>

Релевантность можно разделить на содержательну и формальную. <br/>

Содержательная релевантность - это тот случай когда поисковик угадывает то чего от него хотел юзер. Это зависит от запроса, когда он сформулирован грамотно,четко и не дает поводов для двусмысленности. Например: "купить трактор т34 в кредит не дорого". В таком слу4ае поисковик выдаст ссылки на онлайн магазины аграрной техники и скорее всего именно на те странички где можно оформить заказ на конкретный трахтар. <br/>
Формальная релевантность - это тот случай когда в запросе либо не достаточно уточняющих факторов, либо суть запроса невозможно однозначно выкупить. Короче когда тупо совпадает текст. Хрестоматийный пример,встретился мне когдато в какойто книжке по контентной оптимизации: <br/>

"Много мыла за небольшие деньги" - в таком случае совершенно не факт что поисковик даст вам ссылки на магазины бытовой химии,он наверняка вставит туда еще и какоенибудь опубликованый,душещипательный расказ некой уборщицы Глаши о суровых буднях ее незавидного прошлого,типа: <br/>
"...и так продолжалось день за днем,каридоры,лестницы,опплеваный ленолиум. Вобщем много мыла за небольшие деньги,пока не.." <br/>

И таких примеров полно. Сплош и рядом.
Спросите зачем так глубоко копать? Затем,что пользователь зайдя на вашу страничку по вродебы релевантной выдаче увидит там совершенно не то что хотел и пойдет гулять дальше, по страничкам ваших конкурентов. Поэтому повышая релевантнось своих страниц нужно применять комплексный подход к типизации запросов. Об этом будет расказано позже. В кратце. Уж больно нудная тема. <br/><br/>


<b>ПОИСКОВАЯ ОПТИМИЗАЦИЯ-что она есть. </b><br/>
<i>Методы </i><br/><br/>

Оптимизировать себя можно чесно,а можно не очень.
Говорят так: бывают белые методы,бывает черные,бывают серые(оранжевые,хз откуда пошло). <br/>

Белые методы - это тот путь когда мы делаем страницы такими какими их хотят видеть посетители,вокруг поисковика особо не танцуем. Единственно верный путь. Почему,обьясню буквально на следующей странице. <br/><br/>

2) Черные - методы основанные на слабых,узких местах в поисковых алгоритмах,выявить которые достаточно тяжело,особенно новичку. Не рекомендую. Банан от поисковика - на раз два. И больше ваш сайт никогда не найдут. Хотя такие методы и позволяют иногда прыгать выше головы в результатах выдачи,но до поры до времени. В кратце кой че на эту тему рассмотрим. <br/>

З) Серые - методы которые улучшают ваши показатели не по правилам но и как бы их не нарушая. Банан за такое обычно не дают,восновном из за того что нарушение и сформулировать то четко нельзя. Но под фильтр попасть - запросто. Или просто небольшая перемена алгоритмов и ваша хитрость уже не работает. <br/>

СОВЕТ: лучше все делать по белому, и для людей которые будут на вас смотреть. Почему? Да потому что поисковики постоянно стремятся к тому чтобы их выдача была максимально релевантна и стелятся под юзеров. Да и не дураки там,за рулем поисковой машины сидят,вычислят-отправят баню топить. Да и кому понравится на страничке такое: " Наши утюги это всем утюгам утюги! Утюговей утюгов чем у нас нет нигде. Утюг это утюг потому что он не может быть утюгом. Самые дешевые утюги для вас!" ? Юзверь увидев такое сразу нафиг закроет вашу страницу оформления заказа на утюг и никогда больше к вам не вернется. А пойдет по вашим конкурентам все в той же выдаче,туда,где тонкую душевную организацию юзера уважают больше. Кроме того что вложения в черную оптимизацию рискованы,они еще и не долговечны. Алгоритмы меняются достаточно быстро,и на перспективу эти методы не работают никак. <br/><br/>

*всему свое время,доберемся.<br/><br/>


<a href="poptim1.php">Следующая страница</a> <br/>'
;

echo 
'<br />';
echo 
$div1.'<a href="/servises/seo/">SEO оптимизация</a><br />'.$div9;
echo 
$div1.'<a href="/servises/">Сервисы</a>'.$div9;
include_once (
H.'shaxty/foot.php');
?>
Онлайн: 1
Реклама