1.2k Aufrufe
Gefragt in Webseiten HTML von
Hallo,

um Duplicate Content im Google-Index zu vermeiden habe ich vor kurzem meine robots.txt angepasst:

z.B.
Disallow: /node/
Disallow: /en/node/
Disallow: /de/node
Disallow: /aggregator/
Disallow: /en/aggregator/
Disallow: /de/aggregator/

Diese doppelten Seiten befinden sich aber immer noch im Index, auch findet man mit Google ein paar 404-Seiten. Muss ich einfach noch etwas warten, bis Google diese Seiten wieder entfernt oder muss ich sonst noch etwas tun?

Gruß

3 Antworten

0 Punkte
Beantwortet von
Geduld reicht!

Die 404er solltest du allerdings durch serverseitige Weiterleitungen abfangen.
0 Punkte
Beantwortet von
Ok, danke!
0 Punkte
Beantwortet von halfstone Profi (18.1k Punkte)
Hi Gregor783,

wie lange sind denn die Änderungen schon her?

Gruß Fabian
...