V minulých dvou rozhovorech jsme řešili různé chyby, které lidé při snaze vyhledávač “potěšit” dělají. Webmasterům by v SEO asi pomohl nějaký nástroj jak si ověřit, že jdu „správným směrem“. Nepřemýšlíte třeba o nějakých Seznam Webmaster Tools?
Myšlenkou udělat nějaké nástroje pro webmastery se zabýváme už od roku 2008. Tenkrát se nám při plánování tříletého výhledu dostaly webmaster tools do kolonky “když zbude čas”. V téhle kolonce zůstávaly při každém dalším plánování. Vůbec to totiž není málo práce. Když o tom s někým mluvím, tak je překvapen, co všechno se k tomu musí udělat. Od webovky přes dvojí autentizaci a různé nástroje k celkem masivnímu statistickému backendu. Mezi lidmi panuje představa, že si Seznam chce držet svá tajemství a nikomu nic neříkat. Ve skutečnosti bychom rádi poskytli webmasterům informace, které se týkají jejich webů, jenom zatím řešíme jiné věci, které nám přijdou ještě důležitější.
Máš už nějaké obrysy představy, jaké informace by bylo užitečné webmasterům dát? Něco, na co se můžeme těšit :-)
Obrysy nemám. Minimální verze je, že tam bude přihlášení, autentizace webu a posílání oznámení. Všechno ostatní je otázka poměru nákladů a přínosů. Já bych třeba hodně stál o nástroj, který webmasterům ukáže, jak SeznamBot chápe jejich robots.txt. V maximální verzi by tam teoreticky mohla být kompletní statistická data o viditelnosti webu a přivedeném trafficu, ale těžko říct, zda to půjde rozumně upočítat.
Vypíchnul jsi Robots.txt – chápu to tak, že se v nastavení hodně chybuje? Co jsou ty nejčastější faily?
Nejčastěji se autoři chybně domnívají, že se dědí pravidla z User-agent: *. Zakáží nudné adresáře všem robotům a Seznambotovi chtějí zakázat ještě jeden navíc. Nevědí, že do instrukcí pro Seznambota musejí zopakovat instrukce určené všem robotům. Například:
User-agent: *
Disallow: /nudny_adresar/
User-agent: SeznamBot
Disallow: /neco_dalsiho
SeznamBot se potom klidně pustí do nudného adresáře, ačkoli autoři webu ho asi té nudy chtěli také ušetřit, ale neumějí správně zapsat robots.txt. Pak crawlujeme zbytečné věci. Další relativně častý problém je prostě zakázání crawlování všem robotům, tedy User-agent: * Disallow: /. Nevíme, proč to tak někdo nastavuje. V zahraničí máme velký problém s častým nastavením, které zakazuje vstup všem robotům kromě GoogleBota. Nejsme jako Seznam ve světě natolik známí, aby pro nás psali speciální pravidla, a tak jsou pro nás takové weby uzavřené. Tohle ale přes webmaster tools nevyřešíme, protože se o nás stejně nedozví.
Existuje každopádně dost „nezávislých“ nástrojů, kterými se lidé snaží přijít na to, zda je SEO dobře. Většina z nich se točí kolem zpětných odkazů. Sleduje se kolik jich mám, kde je mám, odkud kam vedou. Je to správný pohled SEO průmyslu a jeho klientů na věc?
Já nevím, co sleduje SEO průmysl nebo jeho klienti. Ale asi to chápu. Sám pro své stránky aktivní linkbuilding nedělám, a tak mě každý odkaz na mé stránky lidsky potěší. Proklikávání těchto nástrojů mě prostě baví. Kdybych aktivní linkbuilding dělal, tak podobný nástroj na sledování odkazů potřebuji o to více. Jestli počty zpětných odkazů něco vypovídají o kvalitě stránky, je samozřejmě jiná otázka. Možná se ptáš na to. Kdysi dávno to platilo, protože lidé spontánně na nekvalitní obsah neodkazovali, takže odkazy byly příznakem kvality. Dnes lidé sami od sebe odkazují mnohem méně (než třeba ve zlaté éře blogování). Navíc mnoho odkazů tvoří stroje a jiné jsou nakoupené. Takové odkazy samozřejmě o žádné kvalitě nesvědčí. Přesto jsou pro vyhledávač zajímavými statistickými informacemi. Jenom asi jinými, než si tvůrci těch strojů a sledovači odkazů myslí.
Že se SEO průmysl zabývá sledováním odkazů, asi není divné. Těch možností, co a jak sledovat, je totiž málo. V zásadě lze sledovat návštěvnost, pozice a odkazy. Všechny ostatní věci jsou pro klienty špatně pochopitelné. I ta návštěvnost je vlastně špatně pochopitelná, takže se měří pozice a odkazy.
Dokážou sociální sítě nahradit “zlatou éru blogování”? Přeci jen zmanipulovat oblibu třeba na Facebooku je o dost těžší než nakoupit pár zpětných odkazů někde v online magazínu.
Nevím, v jakém smyslu by ji měly nahradit.
Ve smyslu nahradit třeba časem zpětné odkazy, alespoň částečně. Z tvých odpovědí vyplývá, že důvěryhodnost odkazů jako signálu klesá – a mne zajímá, zda sociální sítě (a odkazy a zmínky na nich) jsou třeba jedna z cest jak to kompenzovat :-)
Všimnul jsem si, že panuje názor, že zmínky na sociálních sítích převezmou v SEO roli odkazů. Já ale nechci prozrazovat naše nové signály. Nevadí mi, když si určití lidé budou myslet, že místo manipulace odkazového profilu nyní mají manipulovat sociální sítě. Když je to baví.
Ok :-) Zkusím se zeptat z jiné strany – umožňují dnes vůbec sociální sítě jako Facebook nebo Twitter zpracovávat svůj obsah vyhledávačům tak, aby si z něj dokázaly něco relevantního vzít do fulltextu pro výsledky hledání (krom samotných postů / tweetů)?
Vlastně je velmi těžké Facebook a Twitter crawlovat, pokud se chceme chovat jako slušný robot. Facebook na nás sice pamatoval a výslovně nám v robots.txt umožňuje crawlování, ale v praxi nám na každý požadavek na osobní profil stejně vrátí chaptchu. Crawlovat na facebooku tedy můžeme jenom “facebookové stránky” a těch několik málo postů, které na nich stihneme najít. Náš robot totiž na facebookové stránce na rozdíl od uživatele nevidí nekonečnou stránku, takže se na všechny posty nedostaneme.
Pokud jde o Twitter, tak ten se crawluje lépe, ale nedostaneme se k cílům odkazů, protože jsou označeny jako rel=”nofollow”. I kdybychom toto omezení chtěli ignorovat (jako že nechceme), tak bychom museli odkazy parsovat z jiných atributů odkazů, protože standardní href vede na zkracovač t.co, který všechny roboty zakazuje. I na twiterovém profilu vidíme málo postů, něco kolem dvaceti, protože, nemáme nekonečnou stránku.
Z mých odpovědí je asi zřejmé, že momentálně z toho moc informrací nebereme. Ale když už jsi mě o tom přiměl přemýšlet, vidím, že bychom mohli relativně snadno ze stránek, které stažené máme, vyparsovat jejich přibližnou autoritu a nějaké další věci. Nechce se mi psát specializovaný parser na konkrétní weby, i když je možné, že si to Facebook a Twitter zaslouží. Zatím jsme se k nim snažili chovat jako k normálním webům, protože jakékoli výjimky nebo speciální pravidla dokáží vývoj robota pěkně zkomplikovat.
Kromě obsahu postů a odkazů ještě z Facebooku lze omezeně zjistit počet lajků pro konkrétní URL. Ta čísla jsou ale divná, s kvalitou ani spamem přímo nekorelují a mohutně poskakují podle toho, jak velkou propagaci autor svému webu na Facebooku dělá, případně jestli má na webu lajkovací tlačítko.
Existuje podle tebe zpětný odkaz, který je zároveň přínosem pro člověka / vyhledávač a zároveň vznikl aktivním úsilím? Jde podle tebe dělat linkbuilding „správně“, aby práce linkbuildera a cíle vyhledávače byly v souladu?
Jistě, například budování interních odkazů. To je aktivní i důležité. Veledůležité. Ale asi se ptáš na externí odkazy z cizích webů. Přiznám se, že nevím, protože sám aktivní linkbuilding nedělám a nechci říkat, že aktivně získaný užitečný odkaz neexistuje, protože mám třeba jen malou fantazii. Dokážu si třeba představit členy diskuse, kteří na opakované dotazy odpovídají odkazem, třeba i na svůj web. Ale tam jde spíše o snahu pomoci tazateli než o cílený linkbuilding.
V mnoha situacích má linkbuilding pro vyhledávač jiný smysl, než si provozovatelé webů myslí. Jejich cílem je předběhnout na určité dotazy jiné konkurenční stránky. Ve skutečnosti umožňují svým správným stránkám předběhnout svoje vlastní divné nebo duplicitní stránky. Pro vyhledávače jsou totiž zpětné odkazy vybudované linkbuildingem mnohdy jediným signálem, kterým poznají, na kterých URL se na webu nachází preferovaný obsah. Když se dívám do debugu rozhovacích stromů, které používáme pro výpočet relevance, vidím, že se odkazové signály nejčastěji točí kolem velmi nízkých hodnot. Jinak řečeno hlavní rozhodování většinou zní, zda stránka má alespoň jeden zaindexovaný zpětný odkaz (interní i externí), plus pár dalších podmínek. Externí likbuilding nám tedy pomáhá podobně jako linkbuilding interní: když provozovatel na své stránky nechává odkazovat, říká nám tím, že na nich pravděpodobně je nějaký jím preferovaný obsah. Tam potom platí podmínka zmíněná ve tvé otázce, že je odkaz přínosem pro vyhledávač a zároveň vznikl aktivně.
Jsem rád, že zmiňuješ interní linkování. Ono se totiž paradoxně dneska často nepotkává s moderním pojetím webdesignu – vzdušné weby s velkými obrázky a ideálně s málo textem a málo odkazy. Vnímáš to podobně, nebo se české weby naopak v interním linkování spíše zlepšují?
Nevím, jak to zlepšování měřit. A ani nevím, co je moderní pojetí webdesignu. Webdesign je ošidné slovo a já pamatuji dobu, kdy to ještě znamenalo “návrh” webu se vším všudy, ne “nakreslení” webu. Ten šílený stav, kdy se funkce webu navrhují podle jednoho photoshopového obrázku, se myslím v minulosti objevoval častěji než dnes, takže jsem mírný optimista. Ty máš pocit, že to nějak víc souvisí s interním linkováním?
Já se někdy setkávám s tím, že webdesignér nechce mít na webu nějaké vnitřní odkazy, protože by to “nevypadalo sexy a moderně”. Nebo tam nechce mít rovnou celou navigaci. Nebo třeba texty, i když by návštěvníkovi pomohly. Všimnul sis ty nějakého podobného nešvaru v návrhu webů (z pohledu vyhledávání), který je záležitostí poslední doby?
Obecně platí, že vyhledávač se snaží dát uživateli odpověď co nejrychleji a nejkratší cestou ho dovést k cíli. Pokud se ten cíl nachází na krátké samostatné stránce, je to ideální, protože pak uživatel ani nemusí rolovat. Není ale dobré informace štěpit do pěti podstránek, jestliže máš na srdci jen pět vět. Firma, která má fotku provozovny, otevírací dobu, soupis výrobků, kontakt a mapu, si to klidně všechno může dát na hlavní stránku a udělá lépe, protože ta stránka bude pak dohledatelná i na složitější dotazy, protože bude obsahovat více slov, tedy i více jejich kombinací. Že se na jedné stránce nedá dělat interní linkbuilding, tolik nevadí, protože na jednostránkovém webu vyhledávač nemá kam zabloudit. Na delší stránky doporučuji umisťovat kotvy, které pak také uživateli ve snippetu rádi vypíšeme, aby se rychleji dostal tam, kam chce.
Nemůžu vyloučit, že některé moderní trendy kreslení webů dohledatelnost informací ovlivňují, ale konkrétně jsem si ničeho takového nevšimnul. Určitě znáš těch příhod víc než já, když u klientů na webech spolupracuješ s různými profesemi.
Ruský vyhledávač Yandex před časem nějakou dobu zkoušel vydávat výsledky hledání bez přihlédnutí ke zpětným odkazům. Zkoušeli jste někdy něco podobného v Seznamu?
Yandexáci to dělali složitěji. Pro komerční dotazy z určitých tematických oblastí a jen v Moskevské oblasti skutečně vůbec nepoužívali odkazové signály. Něco podobného jsme zkoušeli, ale nechce se nám dělat různé rankery pro různé typy dotazů, protože se nám tím v minulosti nedařilo dosahovat lepších výsledků než společným rankerem. Ostatně když jsem se po tom yandexím oznámení ze zvědavosti díval do debugů, tak se to trochu už děje samo: ve větvích pro komerční dotazy odkazy ve vyšších prazích nic pořádně nerozhodnou. Kdybychom nepoužívali oblivious trees, tak v těch větvích ani nebudou. Odkazové signály jsou ale důležité zejména pro navigační dotazy a docela pomáhají u dotazů informačních.
Komerční dotazy budou asi obecně “zahnojené”. Už dříve jsi zmiňoval, že vám vlastně tolik nezáleží na tom, jak ty výsledky hledání na komerční dotaz seřadíte, pokud jsou relevantní odpověď. Nemyslíš ale, že by se měl vyhledávač snažit zohlednit třeba i u těch eshopů nějakou jejich autoritu a oblibu, když to přeženu pomoci uživateli nakoupit v důvěryhodném obchodě?
Já hodně věřím na metodiku, podle kterého děláme relevanční model nyní. Rozhodně to není metodika dokonalá, ale je přímočará a nejsou v ní žádné bulharské konstanty nebo boční motivace, které by normativně rozhodovaly, podle jakých signálů se mají výsledky řadit a co zvýhodňovat. Jak už jsem zmiňoval (1. rozhovor, 4. otázka), máme ručně anotovaná data, kterým věříme, a podle nich automaticky počítáme model (rozhodovací les). Kdybychom nyní nově chtěli, aby byly důvěryhodné obchody ve výsledcích výše, musíme udělat jednu ze dvou akcí.
- Buďto bychom museli upravit anotovaná data. Vzít naše pravidla pro anotátory a složitě tam připsat, jak se pozná důvěryhodný obchod a co v takovém případě dělat s hodnocením relevantnosti stránky k dotazu (zvýšit, snížit škatulku). Po překlikání dat by se pak relevanční model automaticky naučil dávat důvěryhodné obchody výše, stačilo by mu přidat nějaký deskriptivní signál korelující s důvěryhodností shopu (nějaké už tam jsou, ale nyní nemají důvod se moc chytat). To udělat můžeme, ale ten popis důvěrychodnosti a určení dotazů, u kterých to použít, je natolik komplikovatný, že jsme od toho upustili. Chceme, aby se anotátoři při práci soustředili na relevanci stránky k dotazu a nemuseli se zabývat desítkami výjimek nebo dělat rešerše.
- Nebo můžeme normativně říct, že důvěryhodné obchody chceme mít ve výsledcích výše. Definovat dotazy, pro které bychom to chtěli, naučit klasifikátor, aby se určovaly automaticky. Definovat tu “důvěryhodnost” a pro obchody ji počítat automaticky z nějakých různě nasbíraných signálů. A nakonec naladit váhy, aby to zvýhodnění bylo pocitově správně.
Touto druhou cestou jsme se zatím nevydali, protože záměrně minimalizujeme množství signálů, kterým říkáme normativní. To jsou takové, jejichž váhy nelze opřít o data, jen o pocit nebo náš záměr. Tyto normativní signály nakonec sčítáme, abychom dostali výsledné řazení výsledků. Momentálně máme jenom tři. Nejsilnější normativní signál je výstup relevančních lesů. K tomu přičítáme jazykový signál (velmi obecně řečeno bonus za shodu jazyka dotazu s jazykem dokumentu a pravděpodobnými jazyky uživatelů) a nakonec nějaké body odečteme za spam. Kdybychom k tomu měli přičítat čtvrtý normativní signál zvaný třeba “důvěryhodnost e-shopu u produktových dotazů”, tak určitě cítíš, jak výrazně méně je důležitý v porovnání s relevančním modelem nebo detekcí spamu. No a protože je to normativní signál, je otázka, zda bychom v týmu našli shodu nad tím, jak moc důvěryhodnost shopu přičítat a proč vůbec.
Pokud jde konkrétně o shopy, tak myslím, že lepší bude dát v SERPu větší příležitost výsledkům ze Zboží.cz. Tam se vývojáři na tyhle věci můžou víc soustředit a mají k tomu i více dat.
Majitelé webů se často nechají SEO konzultanty uvrtat do hodně krkolomných nepřirozených aktivit, aby “získali ty silné signály”. Ty přitom často nedávají vůbec smysl. Třeba takový ten ohraný formát “PR článek se 3 odkazy na můj web” v magazínu stvořeném jen pro tento typ článku. Setkáváš se s nějakými dalšími vysloveně hloupými vzorci získávání odkazů, které bys nedoporučil dělat?
Mým doporučením se v tomhle ohledu nedá úplně věřit, protože já budu vždy doporučovat věci, které jsou primárně výhodné pro vyhledávače a možná méně výhodné pro konkrétního konzultanta. Chápu, že na webu vidím techniky, které z různých historických důvodů fungovaly na vylepšení pozic třeba ještě loni nebo dokonce i letos. Co ale nechápu, jsou patičkové techniky, které jsme vyřešili různými updaty v roce 2008, ale stále se objevují nové případy. V prosinci 2012 se v Seznamu výrazně změnil výpočet odkazové relevance a spousta věcí přestala fungovat, ale dělá se to dál a dál. Letos na jaře například přestaly fungovat odkazy z mnoha katalogů, ale dál tam odkazy přibývají. Já si z toho odnáším pocit o veliké setrvačnosti v oblasti produktů, které nabízejí SEO konzultanti. I kdybychom dnes udělali velký třesk a přestali odkazy používat úplně, tak ještě za pět let budou prodávat odkazy jako “to SEO na Seznam”. A protože se odkazům nyní věnujeme zase pozorněji, pro takhle ospalý trh je správné doporučení už dnes kupované odkazy vůbec neshánět a dvojí SEO nedělat, protože než se to trh dozví, tak budeme s klasifikací odkazů zase mnohem dál.
Zatím jsme šli cestou, že ty nakupované a umělé odkazy víceméně ignorujeme. Snad mě kluci z antispamu nezmlátí, když prozradím, že ještě letos chceme posílit zásadu, že web je odpovědný za to, kam odkazuje. To by mělo primárně postihnout weby těch subjektů, které odkazy prodávají. Chceme to udělat normativně, i za cenu, že si tím trochu zhoršíme relevanci. Později se dostaneme k cílenému postihování těch, kdo nakupují. (Zrovna na tohle by se nám moc hodilo reportování odkazů ve webmaster tools z první otázky.)
To zní absolutně báječně! Pro hodně firem a konzultantů to ale může být celkem šok. Chystáte v tohmle směru ruku v ruce i nějakou edukaci “co nedělat” pro ty, kdo se v oboru třeba tolik neorientují a snadno naletí radám takyodborníků? Případně nějaká varování v “možná budoucích” webmaster tools nebo indicie, že tudy cesta nevede?
Až posílíme zásadu odpovědnosti za odkazy, budeme to muset hlasitě komunikovat. Pravděpodobnost, že by webaři sami přišli na to, že jim padají pozice kvůli nějakému odkazování, je totiž mizivá. A kdyby se to nedozvěděli, tak by celé to posílení odpovědnosti byl zcela zbytečný krok. Doufám, že nám v té komunikaci weboví profesionálové ve vlastním zájmu pomůžou. Ačkoli má Seznam značný mediální vliv, složité téma odpovědnosti za odkazy není zrovna námět na otvírák, takže bude trvat, než se to sdělení dostane k majitelům webů, aby byli schopni rozpoznat poctivé služby od pochybných.
Mohli by se podle tebe SEO konzultanti něco naučit od PPCčkařů? Dívá se třeba organic fulltext na relevanci webu podobně jako Sklik?
SEO konzultanti se už z PPC naučili spoustu úžasných věcí. Třeba klíčovku (analýzu klíčových slov). Netvrdím, že klíčovka vznikla primárně v PPC, ale spíše ano a určitě se bez PPC neobjede. Doplnění klíčovky po spuštění webu pořádně bez PPC také udělat nejde. Naměření konverzních poměrů u klíčových slov – pro SEO důležité – je s PPC také mnohem jednodušší. Nebo taková úprava titulků a meta description – každý SEOař, který to myslí vážně, by někdy měl zkusit optimalizovat inzeráty v PPC. Já chápu konzultace v oboru PPC a SEO za značně příbuzné.
Organické vyhledávání na Seznamu sice používá velmi podobné nástroje jako Sklik (např. knihovny strojového učení), ale jak obě služby maximalizují jiné veličiny, tak tam podobnost v relevančních algoritmech moc není. Dělají to jiné týmy a data sdílíme jen trochu na úrovni pochopení dotazu.
Sice nevím co přesně řešíte ale vytvoření Webmaster Tools by podle mého laického názoru mělo být v pořadí priorit co možná nejvýš. Ona možnost zjistit co si o mém webu myslí vyhledávač a případně jej dobře nakopnout je k nezaplacení. Navíc jak píšete, mnoho chyb vzniká z nevědomosti a tak jsou i dobré weby postiženy jen kvůli technickým problémům, o kterých ani neví.
Navíc si myslím, že z Webmaster Tools byste si mohli vytahat spoustu signálů, které by pomohli i ve vyhledávání. Byla by to taková pěkná synergie.
Ta informační uzavřenost seznamáckého fulltextu jednou způsobí jeho pád.
S obľubou si čítam rozhovory s Dušanom a niekedy skutočne žasnem. Dnes, bohužial úsmevne môžem deklarovať a vkľude doložiť desiatkami príkladov „kvalitu“ vyhľadávača a „ignoráciu“ katalógov (a ďaľších techník..). Hoci čiastočne bol načrtnutý dvojitý meter pre obecné výrazy a komerčné, tak stále sa opakuje to isté. Upozorňujem, že nie som zástancom masovej registrácie do katalógov, PR webov a pod. Sledujem špecifické obecné kľúčové slová a čudujte sa svetu, na väčšine z nich sa na popredných poziciách neustále držia MFA weby s KW v doméne, ktorých linkprofil je výlučne (zdôrazňujem výlučne!!) založený na katalógoch a čistom komentárovom spame. Po obsahovej stránke nie sú výnimkou kompletne okopírované texty z wikipédie, spiny a ďalšie lahôdky vo forme krátkych textov obohatených o zhluky kľúčových slov. Namiesto toho články s unikátnym obsahom väčšieho rozsahu, ktoré sú medzi čitateľmi napríklad jedného z našich webov obľúbené a čitatelia ich doporučujú na sociálnych sieťach a odkazujú na ne s rôznych oborových webov sa nachádzajú na „popredných pozíciach 10-strany“. Dôvod je prostý, článok nenakŕmil dostatočne robota požadovanými signálmi. Zrealizoval som na viacerých vzorkách rôzne testy a vidím len minimálny posun vpred. Bohate stačí nakŕmiť robota balastom a ten to s veľkou chuťou „zožerie“. Doporučujem aj p. Pítrovi aj p. Ungrovi, ktorí často obhajujú dnes už zaužívanú dogmu, že obsah je kráľ, aby si vyskúšali spraviť na porovnanie 2 weby. Jeden s kvalitným obsahom, rozsiahlymi, unikátnymi a pre ľudí zaujímavými článkami, ktoré budú naozaj prínosné a druhý, napríklad s mierne upravenými textami s Wikipédie, prípadne spinmi prehnanými cez synonimické slovníky s výdatným interným prelinkovaním a linkprofilom tvoreným technikami, ktoré odsudzujú. Myslím, že budete milo prekvapený, ktorý z webov sa bude na Sezname lepšie umiestňovať. Tým nechcem povedať to, že by sa mal robiť odpad, ale to že na kvalite reálne podľa testovanej vzorky z hľadiska Seznamu nezáleží.
To čo tvrdím mám x-krát odtestované a stále je neuveriteľné, že web ktorý som vytvoril čisto za účelom oblbnutia robota sa dlhodobo drží na popredných miestach, zatiaľ čo web s obsahom prínosným pre čitateľov je Seznamom úplne ignorovaný.
Ďalšia vec..
Zaujímalo by ma, ako chce Seznam rozlišovať, ktorý odkaz je kúpený / predaný za účelom manipulácie s výsledkami vyhľadávania. Ďalšia vec, prečo nedoporučujete kupovať odkazy ? Nie je totiž odkaz ako odkaz. Osobne veľmi rád podporím majiteľa webu kúpou odkazu, keď viem, že mi odkaz prinesie reálnych návštevníkov a konverzie. Z toho, čo ste napísali nepriamo vyplýva, nekupujte / nepredávajte odkazy, je to zlé a budete teoreticky v budúcnosti penalizovaný. V skratke klasické bu bu bu. Vysvetlite mi, v čom je podľa vás zlé predávať reklamné formáty, ako je napríklad aj reklamný článok, na magazíne, ktorý je prínosný pre ľudí a obsahuje sekciu reklama ? Inak povedané nepredávajte bannerové plochy bez no follow, nepredávajte reklamné články s odkazmi bez atribútu no follow, nerobte súťaže s odkazmi bez no follow. Pýtam sa prečo? Určite mi dá za pravdu veľa prevádkovateľov magazínov, že predaj reklamných formátov je jediná cesta ako z dlhodobého hľadiska robiť kvalitný obsah. Kvalitný obsah, ktorý vy pre váš vyhľadávač potrebujete a ktorý ľuďom prinesie pridanú hodnotu niečo stojí a firmy ho zadarmo robiť nebudú.
Moc díky za článek, který nám zase dovolil trochu nahlédnout pod pokličku Seznamu.
Já bych tu vypíchl především ty poslední dva odstavce. Jakožto (šťastným) omylem vzniknuvší SEOkonzultant, jsem zpočátku ne úplně dobře vytvářel meta description a title. To se ale změnilo tím, kdy jsem poprvé vyzkoušel PPC a uvědomil si, že „seo-vytuněný“ title a description, který člověku třeba i pomůže o nějaké to místo v SERPU výše, může mít desetinový ctr oproti týmž vyšperkovaným atributům, byť na druhé stránce.
Žel tohle mnohý „Seo Optimalizace pro vyhledávače Optimalizace stránek SEO konzultant konzultace“ nemá v merku.