пятница, 12 февраля 2016 г.

Ten popular SEO – myths about advancement in Google - Десять популярных SEO – мифов о продвижении в Google


At advancement of sites in Google among web masters have arisen and have affirmed a little SEO – myths and errors.



The reasons — absence of the information or acknowledgement from the primary source (Google); inattentive perusal or wrong understanding of the help information.
1. "Sandbox" existence

There is an opinion that Google applies to young sites the certain algorithm influencing their ranging.

Webeffector in the Wiki encyclopaedias has written:
«Outwardly the site premise in a sandbox looks so. With a resource, apparently, everything is all right, it is in cache Google, any claims to it does not express. However on page of delivery the resource not only does not appear at a set in a search line unique for this site of key inquiries, but at all does not cost in the first line of delivery at a set in a search line of the network address of a site! The resource as if does not exist for the search car. If it so be assured – a site of sandbox Google. Filter Period of validity makes from 6 months till 1 year».

What occurs actually?

There is no "sandbox", — employee Google Andrey Lipattsev tells, — pair-three months we collect all data about a site, and in this term it is ranged by that is, and then can start to be ranged both above, and more low.

The same, but in other words, is written in often set questions Google:
«At first pages of a new site can be ranged without some factors [for example, geo-dependence of a content — a bus comment] which for this site are not found out yet. Full and indistinct duplicates of pages, a content copied from other sites, poorly filled pages, poor-quality texts and other lacks of a site can be defined not at once. But further they will affect, and the site will lose initial positions».

2. "Snivels" Google

Likely, each web master heard about such concept, as supplemental index (an additional index) or it сленговом "the snivel" name. It is considered to be that to receive the list of pages of a site which are in the basic index, it is possible using the operator site:yoursite.ua/&. Accordingly, the list of pages from an additional index ostensibly can be received using a combination site:yoursite.ua -site:yoursite.ua/&.

The bases to consider that additional index Google existed really were. About it there was a publication in Google Webmaster Central Blog from July, 31st, 2007.

From the moment of the publication has passed almost 8 years, and all has exchanged.

«If to enter into an address line site:pdapps.ru/— that all index of pages, and if to enter site:pdapps.ru/& is a basic index which on idea should be in search. Correct, if I am mistaken» — have asked Andrey Lipattseva at a help forum for web masters.

Really, be mistaken, — he has answered. — addition and to inquiry does not give any helpful information to you.

Expert Google to whom we have addressed for a situation explanation, has informed that existence supplemental index is an out-of-date information.

3. "Filters" Google

The filter – сленговый the term used by web masters which means data processing of a site and influence on ражирование and indexing.

Google does not use any filters. Use similar сленга leads to a distortion of meaning of messages as it is up to the end not clear what exactly this or that web master time understands at present the filter as a word.

If you discuss or publish any information connected with Google, it is desirable to use exact terminology.
The Google search engine represents a certain similarity of a clockwork where all "details" are algorithms constantly co-operating with each other in the simplified kind. Therefore, if you have faced fall of a rating of a site in SERP, an exception of an index and so on, it is better to use the term «algorithm [name]» or the measures accepted manually.

Anywhere in official inquiries or publications Google for web masters, including in interview, a word the filter is not used.

4. Influence of behavioural factors on ranging

One more SEO – the myth consists that Google considers influence of behavioural factors for ranging. On this theme of the web master in large quantities write articles and conduct discussions at forums.

Google does not use behavioural factors and social signals in ranging of sites. The expert of service of quality of search Google Andrey Lipattsev has told about it at conference CyberMarketing-2014 [1].

After that statements almost at all conferences necessarily ask it about it. Well, web masters in ostensibly obvious, and all here do not trust.

Later Andrey Lipattsev has confirmed earlier stated point of view:
«We do not consider the data given through Google Analytics at ranging.« Naklikivanie »on references in delivery through the pseudo-services similar юзератору and others, — useless expenditure of resources for web masters who could with большей use advantage them in some other way». «Matt Kats — such indicators as CTR and an indicator of refusals are not taken into consideration in algorithm of ranging».

For understanding of the general approach we result citations of two more employees Google.

John Mueller has told: «I do not assume that [behaviour of users] it that #Google will use as the ranging factor. [2]

Use кликов directly in ranging will not have sense because of noise, — has told Gary Illyes [3].

5. To the first star it is impossible

Remember this slogan in one of advertising of a known brand? Among web masters there is an opinion what enough to add in a code of pages corresponding валидную a marking, and in results of search delivery will appear expanded сниппеты.

Essence in that the in itself marking even three times валидная is not a guarantee of occurrence expanded сниппета. We recommend to study and consider Andrey Lipattseva's answer very attentively.
«… I would recommend to you to be engaged in removal of leaders on a site of purchased references as at their presence display of the expanded descriptions can be disconnected automatically, and their simple deviation it can appear insufficiently. After the next regular revaluation of a site it has appeared a little below that threshold over which for pages of sites the expanded descriptions are displayed. Such revaluations occur constantly and for all sites. Considering that display of the expanded descriptions is not guaranteed at all, I simply would continue to work over a site, as before, having given Google to make the estimations and to make corresponding decisions.
I will notice that on demand site: the expanded descriptions can and be displayed, as for it special criteria »operate.

6. All pages of a site should be in an index

It is possible to open any SEO-forum and to find there a theme «Why Google does not index page...». The myth is based that ostensibly all pages of a site should be in an index.

The index not rubber, — has told on one of conferences engineer Google Rinat Safin.

The Google-boat periodically scans a site and hands over the corresponding information to algorithms which are responsible for an estimation of quality of a site, ranging and indexing of pages.

Let's admit, on a site there are two pages with approximately identical maintenance, but one of them contains a better content, than the second. Resources Google too are not boundless, therefore in our example in an index one page — with a better and informative content will be added only.

Separate pages of a site can be excluded from an index. In addition read our article on Habrahabr — At your site of a problem with Google?

The exact quantity of indexed pages can be learnt only in Google Search Console.

7. Importance of an error 404 for SEO

Among web masters a popular belief that presence on a site of the pages giving 404 error (Error 404 or Not Found the standard code of answer HTTP), can negatively affect indexing or site ranging. Many web masters consider that algorithm Panda considers this information at an estimation of quality of a site.

Webmaster Trends Analyst Google Gary Illyes has extremely accurately explained position Google: «Opinion that errors 404 involve what-whether punishments for a site, in a root incorrectly».

Web изменчив, old references can conduct in anywhere. Гуглоботу such references are indifferent [read, do not influence any indicators — a bus comment]. If suddenly you find beaten references simply correct them that visitors could use normally a site, — spoke on one of videoconferences John Mueller. — I would not contemplate this problem, as something important from the point of view of SEO. It simply part of work on site support — to watch, that references were in an actual condition.

404 error on wrong URL will not do much harm indexations of your site or to its ranging anyway. Even if such errors 100 or 10 million, they will not damage to a rating of your site, — writes John Mueller on the page in Google plus.


author:  
@blogopoisk     in Habrahabr



При продвижении сайтов в Google в среде веб-мастеров возникли и утвердились несколько SEO – мифов и заблуждений.

Причины — отсутствие информации или подтверждений от первоисточника (Google); невнимательное прочтение или неправильное понимание справочной информации.
1. Существование «Песочницы»

Бытует мнение, что Google применяет к молодым сайтам некий алгоритм, влияющий на их ранжирование.

Webeffector в своей Wiki энциклопедии написал:
«Внешне помещение сайта в песочницу выглядит так. С ресурсом, кажется, всё в порядке, он находится в кэше Google, никаких претензий к нему не высказывается. Однако на странице выдачи ресурс не только не появляется при наборе в поисковой строке уникальных для этого сайта ключевых запросов, но даже не стоит в первой строчке выдачи при наборе в поисковой строке сетевого адреса сайта! Ресурса словно не существует для поисковой машины. Если это так, то будьте уверены – сайт в песочнице Google. Срок действия фильтра составляет от 6 месяцев до 1 года».

Что происходит на самом деле?

Нет «песочницы», — рассказывает сотрудник Google Андрей Липатцев, — пару-тройку месяцев мы собираем о сайте все данные, и в этот срок он ранжируется по тем, что есть, а потом может начать ранжироваться как выше, так и ниже.

То же самое, но другими словами, написано в часто задаваемых вопросах Google:
«В первое время страницы нового сайта могут ранжироваться без учёта некоторых факторов [например, гео-зависимость контента — прим.авт.], которые для этого сайта ещё не выяснены. Могут быть не сразу определены полные и нечёткие дубликаты страниц, контент, скопированный с других сайтов, слабо наполненные страницы, некачественные тексты и другие недостатки сайта. Но в дальнейшем они скажутся, и сайт потеряет первоначальные позиции».

2. «Сопли» Google

Наверно, каждый веб-мастер слышал о таком понятии, как supplemental index (дополнительный индекс) или его сленговом названии «сопли». Принято считать, что получить список страниц сайта, которые находятся в основном индексе, можно используя оператор site:yoursite.ua/&. Соответственно, список страниц из дополнительного индекса якобы можно получить используя комбинацию site:yoursite.ua -site:yoursite.ua/&.

Основания считать, что дополнительный индекс Google существовал действительно были. О нём была публикация в Google Webmaster Central Blog от 31 июля 2007 года.

С момента публикации прошло почти 8 лет, и все поменялось.

«Если ввести в адресную строку site:pdapps.ru/ — то весь индекс страниц, а если ввести site:pdapps.ru/& — это основной индекс, который по идее должен быть в поиске. Поправьте, если я ошибаюсь» — спросили Андрея Липатцева на справочном форуме для веб-мастеров.

Действительно, ошибаетесь, — ответил он. — Никакой полезной информации добавление & к запросу Вам не даёт.

Специалист Google, к которому мы обратились за разъяснением ситуации, сообщил, что существование supplemental index – это устаревшая информация.

3. «Фильтры» Google

Фильтр – сленговый термин, используемый веб-мастерами, который подразумевает обработку данных сайта и влияние на ражирование и индексирование.

Google не использует никакие фильтры. Использование подобного сленга приводит к искажению смысла сообщений, поскольку до конца неясно, что именно тот или иной веб-мастер в данный момент времени понимает под словом фильтр.

Если вы обсуждаете или публикуете какую-то информацию, связанную с Google, желательно использовать точную терминологию.
Поисковая система Google представляет в упрощённом виде некое подобие часового механизма, где все «детали» являются постоянно взаимодействующими друг с другом алгоритмами. Поэтому, если вы столкнулись с понижением рейтинга сайта в SERP, исключением из индекса и так далее, лучше использовать термин «алгоритм [название]» или меры, принятые вручную.

Нигде в официальных справках или публикациях Google для веб-мастеров, в том числе в интервью, слово фильтр не используется.

4. Влияние поведенческих факторов на ранжирование

Ещё один SEO – миф состоит в том, что Google учитывает влияние поведенческих факторов для целей ранжирования. На эту тему веб-мастера массово пишут статьи и ведут обсуждения на форумах.

Google не использует поведенческие факторы и социальные сигналы в ранжировании сайтов. Об этом на конференции CyberMarketing-2014 рассказал специалист службы качества поиска Google Андрей Липатцев[1].

После этого заявления почти на всех конференциях его обязательно спрашивают об этом. Ну, не верят веб-мастера в якобы очевидное, и всё тут.

Позже Андрей Липатцев подтвердил ранее высказанную точку зрения:
«Мы не учитываем данные, предоставляемые через Google Analytics при ранжировании. «Накликивание» на ссылки в выдаче через псевдо-сервисы, подобные юзератору и иже с ним, — бесполезная трата ресурсов для веб-мастеров, которые могли бы с большей пользой употребить их другим образом». «Мэтт Катс — такие показатели, как CTR и показатель отказов не принимаются во внимание в алгоритме ранжирования».

Для понимания общего подхода приводим цитаты еще двух сотрудников Google.

John Mueller сказал: «я не предполагаю, что [поведение пользователей] это то, что #Google будет использовать как фактор ранжирования.[2]

Использование кликов напрямую в ранжировании не будет иметь смысла из-за шума,— сказал Gary Illyes[3].

5. До первой звезды нельзя

Помните этот слоган в одной из реклам известного бренда? Среди веб-мастеров бытует мнение, что достаточно добавить в код страниц соответствующую валидную разметку, и в результатах поисковой выдачи появятся расширенные сниппеты.

Суть в том, что сама по себе разметка даже трижды валидная не является гарантией появления расширенного сниппета. Рекомендуем очень внимательно изучить и обдумать ответ Андрея Липатцева.
«…я бы рекомендовал Вам заняться удалением ведущих на сайт покупных ссылок, так как при их наличии показ расширенных описаний может быть отключён автоматически, и простого их отклонения может оказаться недостаточно. После очередной регулярной переоценки сайта он оказался несколько ниже того порога, над которым для страниц сайтов отображаются расширенные описания. Такие переоценки происходят постоянно и для всех сайтов. Учитывая, что показ расширенных описаний ни в коем случае не гарантируется, я бы просто продолжал работать над сайтом, как и раньше, предоставив Google производить свои оценки и принимать соответствующие решения.
Замечу, что по запросу site: расширенные описания могут и отображаться, так как для него действуют особые критерии».

6. Все страницы сайта должны быть в индексе

Можно открыть любой SEO-форум и найти там тему «Почему Google не индексирует страницу...». Миф основан на том, что якобы абсолютно все страницы сайта должны быть в индексе.

Индекс не резиновый, — сказал на одной из конференций инженер Google Ринат Сафин.

Google-бот периодически сканирует сайт и передает соответствующую информацию алгоритмам, которые отвечают за оценку качества сайта, ранжирование и индексирование страниц.

Допустим, на сайте есть две страницы с примерно одинаковым содержанием, но одна из них содержит более качественный контент, чем вторая. Ресурсы Google тоже не безграничны, потому в нашем примере в индекс будет добавлена только одна страница — с более качественным и информативным контентом.

Отдельные страницы сайта могут быть исключены из индекса. Дополнительно читайте нашу статью на Хабрахабр — У вашего сайта проблемы с Google?

Точное количество проиндексированных страниц можно узнать только в Google Search Console.

7. Важность ошибки 404 для SEO

В среде веб-мастеров распространено заблуждение, что наличие на сайте страниц, отдающих 404 ошибку (Error 404 или Not Found стандартный код ответа HTTP), может негативно сказаться на индексировании или ранжировании сайта. Многие веб-мастера считают, что алгоритм Panda учитывает эту информацию при оценке качества сайта.

Webmaster Trends Analyst Google Gary Illyes предельно чётко пояснил позицию Google: «Мнение, что ошибки 404 влекут за собой какие-ли наказания для сайта, в корне неверно».

Веб изменчив, старые ссылки могут вести в никуда. Гуглоботу такие ссылки безразличны [читай, не влияют ни на какие показатели — прим.авт.]. Если вдруг вы найдете битые ссылки, то просто исправьте их, чтобы посетители могли нормально пользоваться сайтом, — говорил на одной из видеоконференций John Mueller. — Я бы не рассматривал эту проблему, как что-то важное с точки зрения SEO. Это просто часть работы по поддержке сайта — следить, чтобы ссылки были в актуальном состоянии.

404 ошибка на неправильном URL не навредит индексации вашего сайта или его ранжированию в любом случае. Даже если таких ошибок 100 или 10 миллионов, они не повредят рейтингу вашего сайта, — пишет John Mueller на своей странице в Google плюс.

автор : @blogopoisk    с Хабра

xxx: Что быстрее падает, рубль или слезы?
yyy: Сервер

Я сейчас соберу узкий круг ограниченных лиц, опираясь на которых разберусь как следует и накажу кого попало! И не посмотрю, офицер это или майор какой-нибудь!



Share Up To 110 % - 10% Affiliate Program

Комментариев нет:

Отправить комментарий