Segítség - taktikák - eltávolítani ismétlődő fájl - Fórum az Internet Marketing

Üdvözlünk! Mondd el, hogy jobban.
Én meg ma Netpak Spider és ő adta nekem a jelenléte a halom veszi az oldalon. Szeretnék megszabadulni tőlük gondolni ezt hozzá a következő sorokat robots.tht itt

Disallow: / * SECTION_ID = *
Disallow: / * / keresés / *
Disallow: / * * PAGEN_17
Disallow: / * back_url_admin = *

Nem jó a programozás, még az alany helyén megérteni. A logika és a szintaxis, akkor minden rendben lesz, ha így írják a robotok, ez megoldja a problémát, a másolatok? Vagy még valami komolyabb (pontosabban)? Köszönöm a tanácsot.

Vegyük ki az „disable indexelése mást.”. Ez arra is, használják a robots.txt :-)

Az első pont.

Mert Yandex lehet alkalmazni Clean-param irányelv felesleges változókat a GET

User-agent: Yandex
Clean-param: SECTION_ID / sphrase_id

A webmaster google szkennelés -> URL-paramétereket betiltani ezeket a változókat az indexelést.

Kösz a tippet, de még mindig egy linket.

1). HELP rájött, hogy ha regiszter
User-agent: Yandex
Clean-param: SECTION_ID
Clean-param: sphrase_id

Hogy törlődik (keresőmotorok figyelmen kívül hagyják a régi és új kizárt az adatbázis), az összes URL tartalmazza ezeket a további változók, valamint a sok értéket.
Mit írtál Clean-param: SECTION_ID / sphrase_id - ez csak a szakszervezet két sor egy vagy több hordozza, hogy mi az érték?

És ha kell hozzá ugyanaz?
Clean-param: PAGEN_17
Clean-param: PAGEN_1 (néha ez is létrejön, de az index nem találja meg)
Clean-param: back_url_admin

3). Az ajánlások a blogok gyakran előfordul, hogy az irányelvek Yandex regisztrálnia kell külön nem az oszlop User-agent: * nevezetesen User-agent: Yandex, ez olyan komolyan?

Kapcsolódó cikkek