Segítség - taktikák - eltávolítani ismétlődő fájl - Fórum az Internet Marketing
Üdvözlünk! Mondd el, hogy jobban.
Én meg ma Netpak Spider és ő adta nekem a jelenléte a halom veszi az oldalon. Szeretnék megszabadulni tőlük gondolni ezt hozzá a következő sorokat robots.tht itt
Disallow: / * SECTION_ID = *
Disallow: / * / keresés / *
Disallow: / * * PAGEN_17
Disallow: / * back_url_admin = *
Nem jó a programozás, még az alany helyén megérteni. A logika és a szintaxis, akkor minden rendben lesz, ha így írják a robotok, ez megoldja a problémát, a másolatok? Vagy még valami komolyabb (pontosabban)? Köszönöm a tanácsot.
Vegyük ki az „disable indexelése mást.”. Ez arra is, használják a robots.txt :-)
Az első pont.
Mert Yandex lehet alkalmazni Clean-param irányelv felesleges változókat a GET
User-agent: Yandex
Clean-param: SECTION_ID / sphrase_id
A webmaster google szkennelés -> URL-paramétereket betiltani ezeket a változókat az indexelést.
Kösz a tippet, de még mindig egy linket.
1). HELP rájött, hogy ha regiszter
User-agent: Yandex
Clean-param: SECTION_ID
Clean-param: sphrase_id
Hogy törlődik (keresőmotorok figyelmen kívül hagyják a régi és új kizárt az adatbázis), az összes URL tartalmazza ezeket a további változók, valamint a sok értéket.
Mit írtál Clean-param: SECTION_ID / sphrase_id - ez csak a szakszervezet két sor egy vagy több hordozza, hogy mi az érték?
És ha kell hozzá ugyanaz?
Clean-param: PAGEN_17
Clean-param: PAGEN_1 (néha ez is létrejön, de az index nem találja meg)
Clean-param: back_url_admin
3). Az ajánlások a blogok gyakran előfordul, hogy az irányelvek Yandex regisztrálnia kell külön nem az oszlop User-agent: * nevezetesen User-agent: Yandex, ez olyan komolyan?