воскресенье, 5 мая 2013 г.

Поисковая оптимизация


Поисковая оптимизация (SEO) является процессом, влияющие на видимость сайта или веб-страницы в поисковых системах "с" естественными "или снимите уплаченных (" органических ") результаты поиска . В целом, чем раньше (или более важное место в странице результатов поиска), и чаще сайт появится в списке результатов поиска, тем больше посетителей он будет получать от пользователей поисковой системы. SEO могут быть ориентированы на различные виды поиска, включая поиск изображений , локальный поиск , поиск видео , Academic Search , Поиск Новости и отраслевые вертикальный поиск двигателей.
 Как интернет-маркетинг стратегии, SEO рассматривает как работают поисковые системы, что люди ищут, фактические условия поиска или ключевые слова, введенные в поисковых системах и какие поисковые системы предпочитают их целевой аудитории. Оптимизация сайта может включать в себя редактирование его содержания, HTML и связанные с ними кодирование как повышение ее значимости для конкретных ключевых слов и устранить препятствия для деятельности индексации поисковых систем. Продвижение сайта увеличить количество обратных ссылок , или внешних ссылок, другую тактику SEO.
Множественное число Аббревиатура SEO может также относиться к "оптимизаторы поисковых систем," те, кто предоставляет услуги SEO.
История
Вебмастера и контент-провайдеров начали оптимизации сайтов для поисковых систем в середине 1990-х, а первые поисковые были каталогизации раннего Web . Изначально все веб-мастерам необходимо сделать, это представить адрес страницы, или URL , на различные двигатели, которые пошлет " паук "" ползать ", что страницы, извлекать ссылки на другие страницы из него и возвращают информацию найти на страницы, которая будет индексироваться . [2] Процесс включает в себя поисковый робот загрузку страницы и хранить его на собственном сервере поисковой машины, где вторая программа, известная как индексатор , извлекает различную информацию о странице, такие как слова он содержит и где они расположены, а также любой вес конкретных слов, и все ссылки страница содержит, которые затем помещали в планировщик для сканирования на более позднем этапе.

Владельцы сайтов начали признавать ценность, что их сайты высокий рейтинг и видимый в результатах поиска, создавая возможность для обеих белой шляпе и черной шляпе SEO практиков. По данным отраслевой аналитик Дэнни Салливан , фраза "поисковая оптимизация", вероятно, вошел в употребление в 1997 году. [3] Первое зарегистрированное использование термина Поисковая оптимизация Audette был Джон и его компания Multimedia Group Маркетинг, как зарегистрировано веб-страницы с Сайт ММГ с августа 1997 года. [4]

Ранние версии поиска алгоритмов полагались на веб-мастеров представили информацию, такие как ключевые слова мета-тег , или индекс файлов в системах, как Aliweb . Мета-теги дают представление о содержании каждой страницы. Использование мета-данные для индексации страниц оказалась менее надежной, однако, потому что выбор веб-мастера ключевых слов в мета-тег потенциально может быть неточным представлением фактического содержания сайта. Неточные, неполные и противоречивые данные в мета-тегах могли и действительно вызывают страниц для повышения рейтинга нерелевантные поиски. [5] [ сомнительных - обсудить ] провайдеров веб-контента также манипулировать количество атрибутов в HTML-тексте страницы в попытке оценить и в поисковых системах. [6]

Опираясь столько от таких факторов, как плотность ключевых слов , которые были исключительно в рамках управления веб-мастера, ранняя поисковых пострадали от жестокого обращения и позиционирования манипуляции. Чтобы обеспечить лучшие результаты для своих пользователей, поисковые системы были адаптироваться к обеспечению их страницах результатов показал наиболее релевантные результаты поиска, а не связанных страницах фаршированные многочисленных ключевых слов недобросовестных веб-мастеров. Поскольку успех и популярность поисковой системы определяется ее способностью производить наиболее релевантные результаты для любого поиска, позволяя тем, чтобы результаты были ложными превратит пользователей, чтобы найти другие источники поиска. Поисковые системы ответила путем разработки более сложных алгоритмов рейтинга, с учетом дополнительных факторов, которые были более трудным для веб-мастеров, чтобы манипулировать. Аспирантами Стэнфордского университета , Ларри Пейдж и Сергей Брин , разработали "Backrub", поисковая система, которая опиралась на математическом алгоритме, чтобы оценить известность веб-страниц. Число, вычисленное по алгоритму, PageRank , является функцией от количества и силы внешних ссылок . [7] PageRank оценивает вероятность того, что данная страница будет достигнута к веб-пользователей, которые случайно серфингом в Интернете, и по ссылкам от одного страницы на другую. По сути, это означает, что некоторые ссылки сильнее, чем другие, как более высокий PageRank страницы, скорее всего, быть достигнуто путем случайного серфера.

Пейдж и Брин основали Google в 1998 году. Google привлекают преданных поклонников среди растущего числа интернет-пользователей, которые любили его простой дизайн. [8] Off-страницы факторы (такие как PageRank и анализ гиперссылки) рассматривались, а также на странице факторов (таких, как частота ключевых слов, мета теги , заголовки, ссылки и структуру сайта), чтобы Google, чтобы избежать такой манипуляции видели в поисковых системах, что рассматриваются только на странице факторов для их рейтинга. Хотя PageRank было труднее игры, веб-мастера уже разработали ссылкой Строительные инструменты и схемы, чтобы повлиять на Inktomi поисковой системы, и эти методы доказывается аналогично применимы к игровым PageRank. Многие сайты сосредоточены на обмене, покупке и продаже ссылок, часто в массовом масштабе. Некоторые из этих программ или ссылки хозяйств , предусматривало создание тысяч сайтов с единственной целью спам-ссылки . [9]

К 2004 году, поисковые системы были включены широкий спектр нераскрытых факторов в своих алгоритмах ранжирования, чтобы уменьшить воздействие ссылка манипуляции. В июне 2007 года The New York Times "заявил Саул Hansell Google ряды сайтов с использованием более чем 200 различных сигналов. [10] ведущих поисковых систем, Google , Bing и Yahoo , не раскрывают алгоритмы они используют для ранжирования страниц. Некоторые SEO практиками изучали различные подходы к поисковой оптимизации, и поделились своими личное мнение [11] патентов, связанных с поисковых систем может предоставить информацию, чтобы лучше понять поисковыми системами. [12]

В 2005 году Google начал персонализации результатов поиска для каждого пользователя. В зависимости от их истории предыдущих поисков, созданный Google Результаты для зарегистрированных пользователей. [13] В 2008 году Брюс Клей сказал, что "рейтинг является мертвым" из-за персонализированного поиска . Он высказал мнение, что это стало бы бессмысленно обсуждать как сайт место, потому что ее ранг бы потенциально быть различным для каждого пользователя и каждой категории. [14]

В 2007 году Google объявила кампанию против платных ссылок, которые передают PageRank. [15] 15 июня 2009 года Google показала, что они приняли меры по смягчению последствий PageRank скульптуры с использованием Nofollow атрибут ссылки. Мэтт Каттс , Известный инженер по программному обеспечению Google, заявил, что Google Bot больше не будет лечить nofollowed ссылки таким же образом, для того, чтобы препятствовать провайдерам услуг SEO от использования Nofollow для лепки PageRank. [16] В результате этого изменения использования Nofollow приводит к испарению PageRank. Для того чтобы избежать выше, SEO инженеры разработали альтернативные методы, которые заменяют nofollowed теги с затемненным Javascript и таким образом позволяют PageRank скульптуры. Кроме того, несколько решений были предложены, которые включают использование фреймов , флэш и Java-. [17]

В декабре 2009 года Google объявила о своем намерении использовать историю веб-поиска всех своих пользователей, чтобы заполнить результатах поиска. [18]

Живой поиск Google в режиме реального времени-поиска, был введен в конце 2010 года в попытке сделать результаты поиска более своевременным и актуальным. Исторически администраторы сайта потратили месяцы или даже годы оптимизации сайта, чтобы увеличить ранжирование поиска. С ростом популярности социальных сетей и блогов ведущих поисковых внесли изменения в свои алгоритмы, чтобы позволить свежий контент быстро занять место в результатах поиска. [19]

В феврале 2011 года Google объявил о " Panda обновления, которая предусматривает наказание за содержание сайтов, содержащих дублируются с других сайтов и источников. Исторически сайтов скопировал содержание друг от друга и в пользу рейтинга в поисковых системах, участвуя в этой практике, однако Google внедрена новая система, которая наказывает сайты, содержание которых не является уникальным. [20]

В апреле 2012 года Google запустил Google Penguin обновить целью которой было наказывать сайты, которые использовали манипулятивные методы повышения их рейтинга в поисковых системах. [21]
Отношения с поисковыми системами

Yahoo и Google офисы

К 1997 году, поисковые системы признано, что веб-мастера прилагают усилия, чтобы занять хорошее место в своих поисковых системах, и что некоторые веб-мастера даже манипулирования их рейтинга в результатах поиска, наполняя страницы с чрезмерным или нерелевантные ключевые слова. Ранние поисковых системах, таких как Altavista и Infoseek , скорректировали свои алгоритмы в целях предотвращения манипулирования веб-мастеров от рейтинга. [22]

В 2005 году ежегодная конференция, AIRWeb, Состязательность поиска информации в Интернете был создан с целью объединения практиков и исследователей, связанных с поисковой оптимизацией и смежным темам. [23]

Компании, которые используют слишком агрессивные методы могут получить свои веб-сайтах клиентов запретили результатах поиска. В 2005 году Wall Street Journal сообщила о компании, мощности трафика , который якобы использовал с высокой степенью риска и методы не в состоянии раскрыть эти риски для своих клиентов. [24] Проводные журнал сообщил, что компания подала в суд же блоггер и SEO Aaron Wall для написания о запрете. [25] компании Google Мэтт Каттс позже подтвердил, что Google и в самом деле запрет мощность трафика и некоторые из его клиентов. [26]

Некоторые поисковые системы также обратилась к индустрии SEO, и часты спонсоров и гостей на конференциях SEO, чаты и семинаров. Основные поисковые системы предоставляют информацию и рекомендации, которые помогут с оптимизации сайта. [27] [28] Google имеет Sitemaps программу, чтобы помочь веб-мастерам учиться, если Google испытывает никаких проблем индексации их веб-сайт, а также предоставляет данные по Google трафик на сайт. [29 ] Bing Webmaster Tools предоставляет способ для вебмастеров представить карту сайта и веб-каналов, позволяет пользователям определить скорость сканирования, а также отслеживать индекс веб-страниц статуса.

Методика
Как индексируются

Ведущих поисковых системах, таких как Google , Bing и Yahoo! , использовать сканеры для поиска страниц для их алгоритмических результатов поиска. Страницы, которые связаны с других поисковых системах проиндексированные страницы не должны быть представлены, потому что они находятся автоматически. Некоторые поисковые системы, в частности, Yahoo!, работают платной услугой представления, что для гарантии ползать либо плату набор или цена за клик . [30] Такие программы обычно гарантирует включение в базу данных, но не гарантируют конкретных рейтинга в результатах поиска. [ 31] Два основных каталогах, каталог Yahoo и Open Directory Project, оба требуют ручной подачей и человеческих редакционный обзор. [32] Google предлагает Google Webmaster Tools , для которой XML Карта сайта корма могут быть созданы и представлены бесплатно, чтобы гарантировать, что все страницы находятся, особенно страницы, которые нельзя обнаружить при автоматической следующим ссылкам. [33]

Поисковая Сканеры могут взглянуть на целый ряд различных факторов, когда ползает сайта. Не каждая страница индексируется в поисковых системах. Расстояние страниц из корневой директории сайта также может быть фактором или нет страницы получить сканирования. [34]
Предотвращение сканирования
Основная статья: Стандарт исключений для роботов

Чтобы избежать нежелательного контента в поисковых индексах, веб-мастера могут поручить пауков не ползать определенных файлов или каталогов через стандартный robots.txt файл в корневом каталоге домена. Кроме того, страница может быть исключена из базы данных поисковой системы с помощью мета-тега , специфичные для роботов. Когда поисковая система посещает сайт, robots.txt находится в корневом каталоге это первый файл, сканировать. Файл robots.txt затем разбирается и даст команду роботу, какие страницы не для сканирования. В гусеничных поисковой системы может держать в кэше копию этого файла, он может при случае сканировать страницы веб-мастер не хочет сканировать. Страницы обычно предотвращается пополз включают логин конкретных страниц, таких как интернет-магазинов и пользовательских контент, такой как результаты поиска из внутренних поисков. В марте 2007 года Google предупреждает вебмастеров, что они должны запретить индексирование внутренних результатах поиска, потому что те страницы считаются поисковый спам. [35]
Все более заметная роль

Разнообразие методов может увеличить известность веб-страницы в результатах поиска. перекрестной связи между страницами и того же сайта, чтобы обеспечить более ссылки на самые важные страницы может улучшить его видимость. [36] написании контента, который включает часто искали ключевые фразы, так что как быть актуальным для широкого круга поисковых запросов будет стремиться к увеличению трафика. [36] Обновление содержания таким образом, чтобы поисковые роботы будут ползать назад часто может дать дополнительный вес на сайт. Добавление релевантные ключевые слова в мета веб-страницы данных, включая тег названия и мета-описания , будет улучшаться релевантность поиска сайта списки, тем самым увеличивая трафик. URL нормализации веб-страниц, доступных через несколько URL-адресов, используя канонический элемент ссылка [ 37] или через 301 редирект может помочь убедиться, что ссылки на различные версии URL табло к ссылке Оценка популярности страницы.
Белая шляпа против черные методы шляпу

SEO методы можно разделить на две большие категории: методы, которые поисковые системы рекомендуют как часть хорошего дизайна, и те методы, какие поисковые системы не одобряют. Поисковых систем попытке свести к минимуму эффект последних, в том числе Поисковый спам . Промышленность комментаторы классифицировали эти методы и практики, которые используют их, либо как белая шляпа SEO или черная шляпа SEO. [38] белые шляпы, как правило, дают результаты, последний долгое время, в то время как черные шляпы ожидают, что их сайты могут быть в конечном итоге запретили временно или постоянно раз в поисковых системах обнаружить то, что они делают. [39]

Техника SEO считается белую шляпу, если он соответствует руководящим принципам поисковых систем и не требует никакого обмана. Как Руководство поисковой системы [27] [28] [40] не в виде ряда правил и заповедей, это важное различие отметить. Белая шляпа SEO это не только следующие рекомендации, но идет об обеспечении, что содержание поисковой системы индексов и впоследствии ряды то же содержание, пользователь увидит. Белая шляпа советы, как правило, сводятся к созданию контента для пользователей, а не для поисковых систем, а затем сделать это содержимое легко доступны для пауков, а не пытаться обмануть алгоритм от намеченной цели. Белая шляпа SEO во многом похож на веб-разработки, что способствует доступности, [41] , хотя эти два не идентичны.

Черная шляпа SEO пытается повысить рейтинг способами, которые не одобряли в поисковых системах, или вовлечь обмана. Один черный шляпа техники использует текст, который скрыт, либо в виде текста цветными совпадают с фоном, в невидимый DIV , или расположены за пределами экрана. Другой метод дает другую страницу в зависимости от того, страницы, запрашиваемой человека посетителя или поисковых системах, метод, известный как маскировка .

Поисковые машины могут наказывать сайты, они обнаруживают, используя черные методы шляпу, либо за счет снижения их рейтинга или устранения их списки из своих баз данных в целом. Такое наказание может быть применено как в автоматическом режиме с помощью алгоритмов поисковых систем, либо путем ручного просмотра сайта. Одним из примеров в феврале 2006 года Google удаление обоих BMW Германии и Ricoh Германию для использования обманной практики. [42] Обе компании, однако, быстро извинился, фиксировали нарушителей страниц, и были восстановлены в списке Google. [43]
В качестве маркетинговой стратегии

SEO не является подходящей стратегией для каждого сайта, и другие стратегии интернет-маркетинга может быть более эффективным, в зависимости от целей сайта оператора. [44] успешной кампании Интернет-маркетинга может также зависеть от создания высокопроизводительных веб-страниц качества, чтобы привлечь и убедить, установка до аналитики программ, позволяющих владельцам сайтов для оценки результатов и улучшения сайта конверсии . [45]

SEO может генерировать адекватный возврат на инвестиции . Тем не менее, поисковые системы не платят за органических поискового трафика, их алгоритмы изменения, и нет никаких гарантий продолжения рефералов. В связи с этим отсутствие гарантий и уверенности, бизнес, который сильно зависит от трафика с поисковых систем может страдать значительные убытки, если поисковики прекратить отправку посетителей. [46] Поисковые системы могут изменить свои алгоритмы, влияющих размещения веб-сайта, что может привести к серьезным потери трафика. По словам генерального директора Google, Эрик Шмидт, в 2010 году Google сделал более 500 изменений алгоритма -. Почти 1,5 в день [47] . Считается мудрый деловой практике для операторов веб-сайта, чтобы освободиться от зависимости от трафика с поисковых систем [48]
Международные рынки

Методы оптимизации имеют очень точную настройку с доминирующей поисковые системы в целевом рынке. Акций поисковых систем рынке варьируется от рынка к рынку, как это делает конкуренцию. В 2003 году Дэнни Салливан заявил, что Google приходится около 75% всех поисковых запросов. [49] на рынках за пределами США, доля Google, часто больше, а Google остается доминирующей поисковой всему миру в 2007 году. [50] По состоянию на 2006 , Google была 85-90% доли рынка в Германии. [51] В то время там были сотни фирм SEO в США в то время, было всего около пяти в Германии. [51] По состоянию на июнь 2008 года, доля рынка в Google в Великобритании была близка к 90%, по данным Hitwise . [52] , что доля рынка достигается в ряде стран.

По состоянию на 2009, Есть только несколько крупных рынков, где Google не является ведущей поисковой системы. В большинстве случаев, когда Google не является ведущей на данном рынке, она отстает от местных игроков. Наиболее заметные рынки, где это имеет место в Китае, Японии, Южной Кореи, России и Чешской Республике, где, соответственно, Baidu , Yahoo! Япония , Naver , Яндекс и Seznam являются лидерами рынка.

Успешная поисковая оптимизация для международных рынков может потребовать профессионального перевода веб-страниц, регистрация доменного имени с доменом верхнего уровня на целевом рынке, а также веб-хостинга , что обеспечивает локальный IP-адрес . В противном случае, основные элементы поисковой оптимизации в основном те же, независимо от языка. [51]
Юридические прецеденты

17 октября 2002 года, SearchKing подал иск в Окружной суд США Западного округа штата Оклахома, против поисковой системы Google. Претензии SearchKing было то, что тактика Google, чтобы предотвратить Поисковый спам составлял деликтном вмешательстве в договорные отношения. 27 мая 2003 года суд удовлетворил ходатайство компании Google отказе в удовлетворении жалобы, поскольку SearchKing "не удалось государству претензию, на которых помощь может быть предоставлена". [53] [54]

 В марте 2006 года KinderStart подал в суд на Google за поиск рейтинга двигателя. Kinderstart сайта была удалена из индекса Google, до судебного процесса и количество трафика на сайт, снизились на 70%. 16 марта 2007 года Окружной суд Соединенных Штатов для северного округа штата Калифорния ( Сан-Хосе отдел) отклонил жалобу KinderStart без разрешения на изменение, и частично удовлетворил ходатайство компании Google для Правило 11 санкции против адвоката KinderStart, требуя, чтобы он заплатил часть Google правовыми расходов.
Источник: http://forums2.gardenweb.com/forums/load/rosesant/msg0107404423259.html

Комментариев нет:

Отправить комментарий