Kereső optimalizálás

Kereső optimalizálás – Robots.txt file írása 4. rész

Kereső optimalizálás – Robots.txt file írása 4. rész
Kereső optimalizálás – Még néhány hasznos tanács a robots.txt file használatához, hogy a kereső optimalizálás is sikeresebb legyen!
Az eddigi cikkekben már bemutattam a robots.txt file hasznosságát, illetve, hogy miben is segít egy honlap gazdájának. Még mutatnék pár hasznos dolgot a robots.txt file –al kapcsolatban, mellyel egyben a cikksorozatot be is fejezném. Lehet később még visszatér a téma pár extra tanáccsal de egyenlőre elég belőle ennyi.

seo_14_792_20070728172531_982.jpg kereső optimalizálás SEO Search Optimization Google optimalizálás kereső marketing  wikipedia search robots WIW keresés optimalizáció search optimizing spider spidering gathering gathers robot page indexing kulcsszavak keywords oldal indexelés optimalizáló verseny optimization race search promotion kereső internet weblap webpage tag search engine promotion keresőoptimalizálás spider optimizing spider optimalizálás met tag description tag

Kereső optimalizálás


Egyszerre több Disallow: sort is lehet írni ha esetleg több olyan dolog van amit nem kell, hogy indexeljen a spider. Ez is egy hasznos dolog, hiszen sokszor több dolgot kell letiltani a spider elől. Íme egy példa:
User-agent: *
Disallow: /cgi-bin/
Disallow: /képek/

Ha egy jó honlap például php -ban íródott de át lett konvertálva HTML –re is hogy a kereső spider –ek könnyen beindexeljék előfordulhat az a probléma, hogy a spider megpróbálja még a php formátumú oldalakat is beindexelni. Ilyenkor ajánlott a következőt tenni. Össze kell gyűjteni a php oldalakat egy külön mappába, aminek legyen a neve az egyszerűség kedvéért php. Ezt a mappát le kell tiltani a spider –ek elől, és így nem okoz majd gondot a php formátum. Ha erre kerül a sor akkor az valahogy így néz ki a robots.txt –ben:
User-agent: *
Disallow: /php/

Ha ez megvan akkor biztos, hogy a php formátumú oldalak nem fogják bezavarni a spider –eket és így elérhető jobb helyezés akár php formátummal is. Remélem ez a cikksorozat rávilágított a robots.txt file fontosságára, és mindenkinek világos mostmár, hogy miben is lehet ez az egyszerű file bárkinek a segítségére.



Edraven


Szóljon hozzá a Kereső Optimalizálás fórumon!:Kereső optimalizálás – Robots.txt file írása 4. rész



Kereső Optimalizálás linkajánló: keresooptimalizalaslink.mconet.hu



További Kereső Optimalizálás híreink: keresooptimalizalas.mconet.hu

Küldjön egy képeslapot ismerősének: Számítástechnika képeslapküldő

A hír támogatója:


Weblap gyártás, Weblap menedzselés, Kereső optimalizálás. Klíma Minden ami Internet ->
MCOnet International - Magyarország: www.mconet.biz; www.mconet.hu