Читать книгу «Основы SEO. Введение в поисковую оптимизацию» онлайн полностью📖 — Тимура Машнина — MyBook.

Тимур Машнин
Основы SEO. Введение в поисковую оптимизацию

Исходный код

Исходный код к примерам можно скачать с сайта GitHub (https://github.com/novts/seo).

Введение. Поисковые системы

Чтобы действительно понять, почему поисковые системы работают так, как они работают, важно знать историю поисковых систем.

В это уже тяжело поверить, но в начале 2000-х сеть выглядела именно так.

Это был список ссылок, которые поддерживались людьми.

И поиск нужной вам информации был сложным процессом, и обычно он заключался в переходе по ссылке со ссылки в надежде, что вы попадете в нужное вам место.

Сама идея Интернета появилась в 1945 году после того, как инженер Буш написал для Time статью «Как мы можем думать».

В этой статье Буш подтолкнул ведущих ученых того времени к созданию практически безграничной, быстрой, надежной, и расширяемой системы хранения и поиска.

Буш понял, что технологии развиваются быстрыми темпами, и поэтому человечеству понадобится способ хранить и легко получать доступ к информации, которая накапливается.

Далее в 1960-м, Джерард Сэлтон, который считается отцом современных поисковых технологий, создал идею поисковой системы и разработал информационно-поисковую систему под названием SMART.

Сэлтон является автором книги под названием «Теория индексации», в которой подробно описываются такие понятия, как статистическое взвешивание, алгоритмы релевантности и многое другое.

Примерно в то же время Тед Нельсон создал проект Project Xanadu, целью которого было создание компьютерной сети с простым пользовательским интерфейсом.

И Тед придумал термин «гипертекст» и был против сложного кода разметки.

Вскоре после этого, в 1969 году, родилась служба ARPANET, которая была создана ARPA, Агентством перспективных исследовательских проектов, относящимся к Министерству обороны США.

ARPANET была безопасной и быстрой компьютерной сетью, которая позволяла передавать информацию на большие расстояния.

И эта служба использовала телефонные линии для передачи информации военной разведки.

Можно с уверенностью сказать, что без создания ARPANET Интернет, каким мы его знаем сегодня, не существовал бы.

В 1990-м, появилась первая поисковая система, созданная Аланом Эмтажем.

Эта поисковая система была известна как Арчи, и она могла извлечь файлы из базы данных, сопоставив запрос пользователя с помощью регулярных выражений.

Алан также создал метод индексации, который позволил Арчи индексировать общедоступные документы, изображения, аудио и сервисы в сети.

Арчи не использовал ключевые слова для поиска связанных документов, как это делают современные поисковые системы.

Чтобы эффективно использовать Арчи, нужно было знать имя файла, который вы ищите, так как Арчи не индексировал содержимое файлов, а только заголовки.

К 1992 году Арчи содержал около 2,6 миллиона файлов, а его сервис обрабатывал около 50 000 запросов в день, генерируемых тысячами пользователей по всему миру.

По мере роста популярности Арчи были созданы две похожие поисковые системы, Veronica и Jughead, с целью индексации текстовых файлов.

И наконец, в 1991 году Тим Бернерс-Ли, независимый подрядчик CERN, создал World Wide Web.

Всемирная паутина была создана на основе концепции гипертекста, чтобы облегчить обмен и обновление информации исследователей CERN.

В 1991 году был создан и размещен в сети первый веб-сайт.

В нем содержалось объяснение того, что такое Всемирная паутина, и как можно настроить веб-сервер и пользоваться браузером.

В 1993 году был создан первый робот-паук. Этот бот назывался World Wide Web Wanderer и был предназначен для измерения роста сети.

Вскоре бот был обновлен для сбора активных URL-адресов и сохранения их в базе данных WANDEX.

Но робот вскоре стал скорее проблемой, чем решением.

Он сканировал веб-сайты и обращался к страницам сотни раз в день, создавая большую задержку на серверах и иногда вызывая сбои веб-сайтов.

Это создало большое недоверие к роботам среди веб-мастеров и широкой публики.

Поэтому был создан робот ALIWEB.

ALIWEB расшифровывался как Archie-подобная индексация Интернета, и он сканировал метаинформацию страниц.

И ALIWEB разрешил владельцам предоставлять свой сайт для включения в поисковый индекс вместе с описанием веб-страниц.

Недостатком было то, что многие люди не знали, что они должны предоставить свой сайт для индексации.

И все современные поисковые системы создали программы, известные как роботы.

И каждая поисковая система использует своего уникального робота.

Эти роботы сканируют Интернет, пытаясь обнаружить новые веб-страницы и документы.

Один из способов, с помощью которого роботы открывают новые сайты, – это ссылки.

Если другой веб-сайт ссылается на ваш сайт, это упрощает путь для робота.

В первые дни Интернета веб-мастерам приходилось размещать свой сайт в поисковых системах, чтобы его могли обнаружить роботы.

Теперь роботы найдут ваш сайт самостоятельно.

И добавление вашего сайта в бесплатных службах, таким как Инструменты Google, поможет в этом процессе обнаружения.

Как только робот обнаруживает новую страницу или сайт, он анализирует весь контент и данные на странице, чтобы определить, о чем идет речь.

Затем сайт добавляется в базу данных.

Каждая страница находится в каталоге, поэтому поисковые системы могут быстро ссылаться на данные при необходимости и возвращать соответствующие результаты в ответ на поисковый запрос пользователя.

Чтобы ускорить процесс, по всему миру расположены центры обработки данных, которые позволяют быстро получать доступ к большому количеству информации.

И работа SCO заключается в том, чтобы понять, что делает веб-сайт релевантным для поискового запроса.

В прошлом поисковые системы смотрели только контент на вашей странице или какие ключевые слова, использовались наиболее часто.

Сейчас поисковые системы стали намного умнее.

И сегодня существуют сотни факторов, влияющих на релевантность результатов поиска.

В свое время был создан стандарт исключения роботов, который устанавливает стандарты того, как поисковые системы должны индексировать или не индексировать контент.

И используя стандарт исключения роботов, веб-мастера могут указывать поисковым системам, какой контент они хотят сканировать и какой контент они хотят, чтобы поисковые системы оставили в покое.

Вы можете заблокировать просмотр роботом всего сайта или только определенных страниц.

По умолчанию вся публичная информация сканируется и публикуется.

К концу 1993 года были созданы три поисковых системы.

Хотя ни одна из них не показала себя достаточно хорошо, чтобы сохраниться.

Jumpstation собирала заголовки веб-страниц и извлекала их с помощью простого линейного поиска.

WWW Worm индексировала заголовки и URL, но отображала результаты только в том порядке, в котором они были обнаружены.

Третья система Spider Based Software Engineering или RBSE, не имела никакой системы ранжирования.

И по сути, чтобы пользоваться любой из этих поисковых систем, вам нужно было знать точное название того, что вы искали.

Примерно в то же время шесть старшекурсников из Стэнфорда создали поисковую систему, которая оценивала результаты на основе статистического анализа взаимосвязей слов.

С ростом Интернета двое студентов в Стэнфорде Джерри Янг и Дэвид Фило создали то, что мы знаем сегодня как Yahoo.

Эти студенты использовали Интернет, который был всего лишь набором файлов, чтобы найти самую свежую спортивную информацию.

И они быстро поняли, что для эффективного использования Интернета людям нужен каталог, чтобы помочь пользователям перемещаться по информации.

Они начали создавать каталог и вручную компилировать веб-сайты, которые они нашли, в коллекцию категорий и подкатегорий.

Пользователи Интернета могли кликать по этому каталогу, чтобы находить новую информацию и сайты.

Этот каталог назывался «Руководство Дэвида и Джерри по всемирной паутине».

И был первым сайтом, который собирал сайты, чтобы пользователям было легче находить информацию, которую они искали.

По мере того, как Руководство Дэвида и Джерри по всемирной паутине набирало популярность, они поняли, что им нужно более броское имя. Так они создали Yahoo!

Но свежего, нового имени было недостаточно. Им нужно было финансирование.

Сегодня такие поисковые системы, как Yahoo и Google, генерируют миллиарды долларов.

Но в то время никто еще не нашел способ монетизации Интернета.

В первые дни, Интернет не использовался для бизнеса или коммерции.

Некоторые даже считали идею о ведении бизнеса в Интернете плохой.

И в начале 90-х дебаты по поводу надвигающейся коммерциализации сети были довольно ожесточенными.

Были венчурные капиталисты, которые хотели использовать рекламу на новом канале, с одной стороны. И другие, которые рассматривали это как некоммерческую утопическую среду, с другой стороны.

И Дейв, и Джерри столкнулись с этой дилеммой финансирования и, в свою очередь, рекламы, которая поможет расширить их платформу, но в то же время потенциально оттолкнет их пользователей.

В итоге они выбрали рекламу, но обнаружили, что база пользователей все равно продолжает расти.

Это создало бум.

Еще больше компаний осознали потенциал зарабатывания денег в Интернете.

В это же время, была запущена поисковая система Excite, и ее алгоритм был ближе к тому, что мы сегодня считаем поисковой системой.

Конкуренция между Yahoo и Excite обострилась.

Каждый стал придумывать больше интересных функций, таких как бесплатная электронная почта, чтобы привлечь пользователей и заставить их оставаться на своем веб-портале.

И в конце концов жадность создала проблему.

Так как было трудно найти соответствующую информацию в Интернете, потому что большинство результатов – это были ссылки на рекламу и нерелевантные или спам-страницы.

Мир нуждался в лучшем способе поиска в сети.

Но вскоре на помощь пришла новая поисковая система от двух студентов Ларри Пейджа и Сергея Брина, которые создавали поисковую систему, которую сегодня мы знаем как Google.

Google начал с идеи, что веб-сайты должны участвовать в конкурсе популярности, и чем популярнее сайт, тем больше людей ссылаются на него, чтобы рекомендовать этот сайт другим.

Следовательно, чем больше ссылок на веб-сайт, тем лучше этот сайт должен быть для пользователей и тем выше он будет в рейтинге их новой поисковой системы.

В своей научной статье в 1998 году они заявили, что, по сути, Google интерпретирует ссылку со страницы на страницу как голосование.

И Google оценивает важность страниц по голосам, которые они получают.

Это стало самой большой частью алгоритма Google, известного как Page Rank.

И в то же время, чтобы ваш веб-сайт имел более высокий рейтинг, чем веб-сайт конкурентов, все, что вам действительно было нужно, – это больше ссылок, чем у вашего конкурента.

Это было довольно легко получить.

Поэтому с годами Google доработал свой алгоритм.

Но в первые дни Интернета, такой простой алгоритм сделал результаты поиска очень удобными для пользователя.

Люди начали собираться в поисковике и чуть не обрушили интернет университета Стэнфорда.

Поэтому вскоре Ларри и Сергея попросили убрать Google из кампуса.

Чтобы продолжить работу и улучшить свою поисковую систему, им нужно было финансирование.

Но никто не хотел вкладывать деньги, потому что люди думали об этом как о еще одной поисковой системе.

Один инвестор, который также был инвестором Excite, попытался убедить Ларри и Сергея работать с Excite вместо того, чтобы продолжать развивать Google.

Ларри и Сергей предложили заплатить им около миллиона долларов, чтобы выкупить их.

Excite отклонил это предложение, что, вероятно, смущает их по сей день.

В конце концов, Ларри и Сергей нашли финансирование, и они не возражали против монетизации, но они обеспечивали, чтобы страница с результатами поиска предоставляла релевантные, понятные результаты без всякой кричащей рекламы.

Они решили оставить сайт свободным от рекламы до тех пор, пока не смогут найти способ сделать так, чтобы это не влияло на удобство использования.

Тем временем в Лос-Анджелесе основатель стартапа-инкубатора idealab работал над решением проблемы интернет-рекламы.

Этим человеком был Билл Гросс, и он понимал, что каждый раз, когда пользователь вводит поисковый запрос в поисковую систему, он сообщает этой поисковой системе именно то, что его интересует и какие товары он может потенциально купить.

Эта информация была чрезвычайно ценной для маркетологов и рекламодателей.

И Билл понял, что поисковые системы могут продавать эту информацию и конкретные запросы рекламодателям.

Это позволило бы компаниям гарантировать, что их бренд будет связан с определенными ключевыми словами, покупая ссылку на свой сайт всякий раз, когда кто-либо вводит связанное ключевое слово в поисковую систему.

Например, Nikon может платить большие деньги, чтобы появляться каждый раз, когда кто-то печатал слово «камера».

Многие думали, что эта идея никогда не сработает.

Но Гросс видел это как новую форму желтых страниц, где вы можете открыть телефонную книгу, перейти на страницу и найти платные объявления для всего, что вы искали.

В 1998 году он в конечном итоге запустил сайт на основе спонсорских ссылок для конкретных ключевых слов.

В конце концов, этот сайт привлек внимание Ларри и Сергея, которые подумали, что это может быть отличной дорожной картой для их собственной поисковой системы.

Они решили встретиться с Биллом и обсудить способы объединения.

По какой-то причине эта сделка не была заключена.

Но в 2000 году Google выпустил свою версию Adwords, очень похожего сервиса.

Гросс подал в суд на Google из-за сходства, но обе стороны в итоге урегулировали вопрос в суде.

И Google дал Гроссу большое количество акций Google, чтобы он был счастлив.

Google отделил рекламу от обычных результатов поиска.

Это помогло гарантировать, что результаты обычного поиска будут по-прежнему полезными и актуальными для пользователей.

Это привело к новому бизнесу, который принес Google наибольшую долю рынка и изменил будущее онлайн-рекламы.

На этой странице вы можете прочитать онлайн книгу «Основы SEO. Введение в поисковую оптимизацию», автора Тимура Машнина. Данная книга имеет возрастное ограничение 12+, относится к жанрам: «Программирование», «Маркетинг, PR, реклама». Произведение затрагивает такие темы, как «продвижение сайта», «создание сайтов». Книга «Основы SEO. Введение в поисковую оптимизацию» была написана в 2022 и издана в 2022 году. Приятного чтения!