Историята на SEO

Историята на SEO

Оптимизация за търсачки (SEO) е процес на подобряване видимостта на даден уебсайт или уебстраница в търсачките чрез поредица от стъпки, подобряващи резултатите от търсения. Друга форма на маркетинг в Интернет е SEM – search engine marketing – платени, таргетирани обяви. В общи линии, колкото по-високо в класацията на една търсачка (например Google) и колкото по-често се появява един сайт в резултатите от дадено търсене, толкова повече посетители ще го разгледат. SEO може да бъде насочено към различни видове търсения – на снимки, локални търсения, видео търсене, търсене на новини и други. Точно това представлява Интернет присъствието на един сайт.Като Интернет маркетинг стратегия SEO определя как работи една търсачка, какво търсят хората, действителните ключови думи, които се пишат в търсачките и кои търсачки са предпочитаните за дадена таргетирана аудитория. Оптимизацията на уеб сайт може да включи корекция на неговото съдържание и дори HTML код, за да се повиши неговата релевантност към специфични ключови думи и да бъдат премахнати пречките пред индексирането на сайта в търсачките. Повишаването на броя на линковете сочещи към един сайт е друга SEO стратегия. Терминът SEOs е събирателно означаващо “search engine optimizers” – термин, приет от индустриални консултанти, които отговарят за оптимизационни проекти и служители, които осигуряват оптимизация като услуга. Оптимизаторите могат да предложат SEO оптимизация на сайт като единична услуга или като част от SEO кампания. Ефективната SEO оптимизация може да изисква промени в HTML кода, в съдържанието на сайта, а по-същественото и засилено SEO изисква значителен ресурс, който да захрани даден уеб сайт. Друг метод за оптимизация на сайт известен като блекхет SEO или спам използва забранени от търсачките (например Google) техники, като ферми за линкове и много други.
Уебмастърите и създателите на съдържание започнаха да оптимизират сайтове за търсачки през средата на 1990г., когато се появили първите търсачки в мрежата. В крайна сметка това, което трябвало да правят всички уебмастъри било да качат адрес ан страница или URL, към няколко търсачки, което щяло да изпрати “бот” да “замрежи” страницата и така да се извлекат линкове от нея към други странции и сайтове, което ще върне информация открита върху страницата, която ще бъде индексирана. Процесът изисквал свалянето на страница от паякът на търсачката и сортирането и на собствен за търсачката сървър, където програма, позната като индексатор, извличала разнообразната информация относно страницата, информация като ключови думи и къде са разположени те, както и тежестта на определени думи и всички линкове.Собствениците на сайтове започнали да осъзнават стойността на рангът на техните сайтове и те да бъдат видими и добре позиционирани в търсачките, което от своя страна създавало възможност за едновременно уайт хет(white hat) и блек хет(black hat) SEO. Според анализаторът Дани Съливън, фразата “оптимизация за търсачки” най-вероятно се е появила през 1997. Първият ,документиран, употребил терминът SEO бил Джон Аудете и неговата компания Мултимедия Маркетинг Груп.
Ранните версии на търсещите алгоритми разчитали на уебмастър-доказаната информация такава като известния keyword meta tag, или индексните файлове в търсачките като ALIWEB (по онова време). Мета таговете осигурявали път към съдържанието на всяка страница. Използването на мета данни за индекса на страници било установено като ненадеждно, защото изборът на уебмастърите за ключови думи в мета тагове можел да бъде едно неточно отражение на действителното съдържание на сайта. Неточна, непълна и непоследователна информация в мета таговете може да доведе и е причина страници да се класират за неподходящи търсения. Като разчита толкова много на такива фактори като плътност на ключовата дума, които са изключително под контрола на уебмастъра, ранните търсачки пострадали от набези и ранг манипулации. За да се осигурят по-добри резултати за своите потребители, търсачките трябвало да се адаптират към осигуряване страници с резултати, които показат най-подходящите резултати от търсенето, а не да показват страници, пълни с множество ключови думи въведени от страна на безскрупулни уебмастъри. Тъй като успехът и популярността на търсачка се определят от способността й да показва най-важните резултати от всяко дадено търсене, да позволи на тези резултати да бъдат лъжливи със сигурност щяло да обърне потребителите срещу търсачката и щяло да ги накара да намерят други източници за търсене. Търсачките отговорили чрез разработване на по-сложни алгоритми за класиране, вземайки предвид допълнителни фактори, които са по-трудни за манипулация от уебмастърите.
Завършили студенти от университета Станфорд, Лари Пейдж и Сергей Брин, разработили “backrub” търсачка, която разчита на математически алгоритъм за оценяване на популярността на уеб страниците. Цифрата, изчислена от алгоритъма, PageRank-а, е функция на количеството и силата на входящи връзки. PageRank оценява вероятността, че дадена страница ще бъде намерена от уеб потребител, който случайно сърфира в Интернет и следва връзки от една страница към друга. На практика това означава, че някои връзки са по-силни от други, като по-висок PageRank страница е по-вероятно да бъде постигната от случаен сърфист.
Пейдж и Брин основали Google през 1998 година. Google привлякла лоялни посетители сред нарастващия брой на потребителите на Интернет, които харесвали простия дизайн. Offpage фактори (като например PageRank и анализ хипервръзка), били разглеждани както и onpage факторите (като честота на ключовите думи, мета тагове, заглавия, връзки и структура на сайта), за да може Google да избегне манипулациите срещани в търсачките до тогава, които използвали само onpage факторите за тяхното класиране. Въпреки, че PageRank е по-трудно да да бъде изигран, уебмастъри вече са разработили инструменти за изграждане на връзки и схеми за влияние, като тези методи се оказали подходящи, за да бъде “изигран” PageRank-а. Много сайтове се насочили към обмен, покупка и продажба на връзки(линкове), често в огромен мащаб. Тези схеми, или ферми за линкове поставили началото на създаването на хиляди сайтове с единствената цел – линк спам. До 2004 г., търсачките включвали широка гама от неразкрити фактори в техните алгоритми за класиране, за да се намали въздействието на манипулациите. Google казва, че класира сайтове с повече от 200 различни сигнала. Водещи търсачки, Google, Bing, и Yahoo не разкриват алгоритмите, които използват за класиране и оценяване на страници. Известни SEO доставчици на услуги, като Ранд Фишкин, Бари Шварц, Аарон Стена и Джил Уолън са проучили различни подходи за оптимизация за търсещи машини и са публикували своите мнения в онлайн форуми и блогове. SEO практикуващите могат също да проучат патентите, притежавани от различни търсачки, за да получат представа за алгоритми. През 2005 г. Google започна персонализиране на резултатите от търсенето за всеки потребител. В зависимост от историята им от предишни търсения, Google изработи резултати за регистрирани потребители. През 2008 г. Брус Клей заяви, че “класацията е мъртва” заради персонализираното търсене…

Автор на статията е SEO оптимизатор и специалист уеб разработки.