Autor zminuje netcraft (ktery globalne monitoruje pocty webu) a porovnava je s poctem domen druhe urovne v ".cz". Jablka se daji porovnavat velmi obtizne se softwarem.
Článek jsem nečetl, ale i po zběžném prolétnutí je tam bezpočet chyb. Možná by bylo lepší, kdyby ten článek vůbec nevyšel.
Konkrétně:
K vyhledávačům:
1. Opravdu jsou to tisíce *miliard* stránek?
2. I kdyby to byly miliony, tak jsou to neaktuální data (ty vyhledávače mají už tak trojnásobek stránek i podle pesimistických odhadů).
3. Většina tam zmíněných vyhledávačů už *neexistuje* - FAST, Altavista ani Inktomi. Naopak tam chybí Yahoo Search (nástupce těch zmíněných) a MSN Search.
a jinak:
4. Terminologie - jsou tam používany slova "stránka", "adresa" a jejich význam se v průběhu článku mění, bez jasnějšího vymezení. Asi by bylo vhodnější používat dobře definované termíny, to jest doména a url, které jsou jednoznačné. Lupa je odborný server, takže se jich bát nemusíme.
4. "Podle ČTK polovinu trhu pronájmů prostoru pro internetové stránky ovládly zahraniční společnosti" - co jsem tu zprávu viděl, tak tahle informace není pravdivá. Je hezké, že uvádíte zdroj, takže tu chybu na něj můžete svést. Nicméně ocitovat chybující zdroj také není dobrá vizitka.
Doména není vyhledávač. Doména samozřejmě existuje dál (Yahoo by bylo hloupé, kdyby ji zrušilo, protože je to pořád známé jméno), ale samotný vyhledávač už zanikl (to jest už není ani technologie, ani databáze, ani vývojový tým). Teď na té doméně provozují mutaci Yahoo Search Technology.
V článku to bylo zmiňované v kontextu velikosti indexu, takže asi nejdůležitější je právě to, že už neexistuje vyhledávací index Altavisty.
No ja bych tento parametr rozhodne nevidel jako dogmaticky a nejak vyznamny, to uz IPS (Instruction per second) nebo podobne jsou daleko vice o vykonu vypovidajici...
a na konci clanku o poctu serveru pronajimatelu v cechach, velmi zvlastni formulace, rekl bych ze mluvi o poctu domen, mit nekde 27000 serveru je trochu jiny pribeh
spis je za vsi to, ze lide se chtej dostat do googlu a tak si generuji tisice stranek a webu aby si zvedli ranky.
treba porad fungujici metoda jak to delat pomoci search-like systemu, ktere kdyz indexuje robot, tak pochopitelne vidi miliony novych stranek.
ne SEO optimalizator, co kazdeho pul roku koupi 100 novych domen, z nich desne zaspamuje google (zaregistruje miliony stranek), kdyz ho pak konkurence uda a google zabanuje, tak jede z dalsich 100 domen. tim ze to dela nonstop, tak jen plynule prechazi od zabanovanych k novym nezabanovanym, a tak kazdeho pul roku google "objevi" par milionu jeho novych stranek.
Tomu bych docela veril. Takovym zm*dum by mel nekdo rozbit hlavy, protoze snizuji relevanci vyhledavacu a skodi ostatnim.
Pripadne to alespon postihovat jako klasicky spam.