Теория оптимизационной верстки

“Пища” для поисковых машин

Поисковые машины – если рассматривать их с позиций принципиального устройства и не вдаваться в подробности конкретных технических и программных реализаций – представляют собой сверхмощные компьютеры, на которых запущены программы, постоянно “обшаривающие” Интернет в поисках новых и изменившихся Web-страниц. Поисковых роботов-пауков можно уподобить реальным животным: они точно так же обыскивают свою территорию (которой в их случае является обычно либо весь Интернет, либо его национальный сегмент) в поисках пищи. Но, в отличие от взаимоотношений хищника и жертвы в природе, пища поисковых машин сама желает “попасться в сети”. Да, в общем-то, большая часть Web-страниц изначально создается ради этой цели. Мало кто создает в Сети сайт в надежде, что его никто и никогда не найдет. Напротив, Web-ресурсы стремятся охватить определенную аудиторию, которая должна быть четко определена еще до начала работ над сайтом.

 

Несовершенство методов поиска

В настоящее время поисковые алгоритмы недостаточно совершенны: ведь нужен настоящий искусственный интеллект, чтобы проанализировать содержание Web-страницы, отнести ее к нужному тематическому разделу, определить информационную ценность и степень релевантности тем или иным поисковым запросам. После того как алгоритмы, работающие по таким принципам, будут созданы, политика создания текстового контента для сайтов значительно изменится. Любые оптимизаторские ухищрения станут бесполезными, и первые позиции на страницах выдачи результатов поиска займут сайты, содержащие самый интересный, подробный, релевантный и хорошо написанный контент.

Разумеется, оптимизаторы не исчезнут и не перестанут существовать, однако их уровень профессионализма в условиях грядущих “поединков” с великолепными алгоритмами поисковых машин должен будет значительно вырасти (по сравнению с тем, какая ситуация с этим складывается в данный момент). В будущем оптимизатор обязательно превратится в филолога-математика, оперирующего “семантическими уравнениями” и прочими еще даже не открытыми параметрами текста.

Но это вовсе не значит, что сейчас поисковые роботы “глупы” и легко поддаются обману. Над их алгоритмами работают лучшие программисты всего мира, а решения и математические модели, созданные при разработке алгоритмов поисковых машин, применяются в огромном количестве других сфер познания. На исследования поисковых алгоритмов выделяются громадные суммы, причем суммы эти не утекают в пустоту. Каждый год появляются все новые и новые поисковые машины, предлагающие свои оригинальные методы определения релевантности страниц, а крупнейшие поисковые машины (например, Google) набирают такой головокружительный темп развития, что даже самые смелые прогнозы аналитиков превращаются в пресс-релизы буквально на глазах.

Однако уже сейчас поисковые системы очень и очень неплохо анализируют текстовый контент страницы, выводя на первые позиции в своем внутреннем ранжировании сайты, информационная структура которых образована контентом “двойной привлекательности” – интересным как поисковому роботу, так и целевой аудитории.

Но пока поисковые машины еще не перешли к анализу исключительно текстового контента Web-страниц и не отказались от считывания HTML-разметки. Грамотная HTML-верстка не потеряет своего значения еще очень долго, поскольку даже здравый смысл подсказывает простой, напрашивающийся сам собой вывод: если создатели сайта ответственно подошли к созданию структуры невидимой глазу HTML-разметки, то и ко всему остальному (контенту, внутренней ссылочной структуре, внешним факторам ранжирования и прочему) подход столь же серьезный и ответственный. И наоборот – те сайты, при разработке которых правила оптимизационной верстки не учитывались, обычно неинтересны с точки зрения контента и абсолютно нерелевантны, поскольку сделаны “спустя рукава” (и это проявляется во всем комплексе контента сайта).

Материалы близкой тематики:

Posted in Основы контентной оптимизации.