Duplicate Content

Duplizierter Inhalt bei e-Commerce Seiten liegt in der Natur der Sache. Denn jede e-Commerce Plattform, egal wie SEO-freundlich diese sind oder die Hersteller werben, produziert irgendeine Form von doppelten Inhalten und verhindert oft Top-Rankings in Suchmaschinen. Beispiels dafür sind Produktlisten in Kategorien oder Wunschlisten, übersetzte Produkte oder schlicht schlechte Produktdaten – entstanden durch automatisiertem Produktimport oder mangelnder Planung bei der manuellen Anlage von Artikeldaten.

Keine Strafe, aber Dämpfung

Entgegen der allgemeinen Meinung von vielen Experten gibt es keine Strafe für Duplicate Content. Dies hat auch Google in seinem eigenen Blog mehrfach bestätigt. Soweit die gute Nachricht. Die schlechte Nachricht? Auch wenn Google Seiten mit Duplicate Content nicht abstraft, so kommt es durch einen Algorithmus sehr wohl zu einer Verschlechterung – zu einer Dämpfung. Das heimtückische daran ist, dass diese kaum sofort sichtbar ist. Die Begriffe dazu sind Relevance und Authority.

Gibt es doppelten Content für das gleiche Keyword-Thema, so teilt sich die Link-Authority auf zwei oder mehr Seiten auf. Dies verschlechtert dann sowohl die Relevance, als auch die Authority als wesentliche Parameter im Algorithmus von Google. Da in so einem Fall mehr als eine Seite auf das gleiche Keyword-Thema ausgerichtet ist, sind diese für Suchmaschinen weniger relevant, da es schwieriger ist zu bestimmen, welche Seite den Vorrang hat. Und da mehrere Seiten intern mit dem gleichen Keyword-Thema verlinkt werden, unterstützen die Links, die alle eine einzelne Seite stärken könnten, stattdessen nur schwach mehrere Seiten und bringen keinen Vorteil. Eine Dämpfung ist also eine Schwächung der Signale, die eine Website an Suchmaschinenalgorithmen sendet, was sich auf die Fähigkeit der Website, besser zu ranken, auswirkt.

Warum aber ist das keine Strafe? In Googles Welt wird eine Strafe manuell von einem echten Menschen verhängt, wenn bestimmte Seiten oder eine ganze Website eine vordefinierte Definition von Verletzungen erfüllen. Eine Dämpfung ist von algorithmischer Natur und ist in der Regel schwieriger zu diagnostizieren, da Google Sie bei algorithmischen Problemen nicht über Google Search Console auf die Art und Weise alarmiert, wie es bei einer manuellen Strafe benachrichtigt.

Unerwünschte SEO Effekte

Das Problem mit dem Loswerden von doppelten Inhalten ist, dass das schlichte Entfernen von Seiten auch andere unerwünschte Effekte produzieren kann. Wie zum Beispiel:

  • Customer Experience: In einigen Fällen müssen Ihre Käufer diese Seiten sehen. Sortierte Produktübersichten, Seiten von Wunschlisten, Druckseiten und vieles mehr werden oft automatisch dupliziert. Das Entfernen solcher Seiten würde gegebenenfalls das Kundenerlebnis und möglicherweise den Umsatz beeinträchtigen.
  • Link Authority: Jede indizierte URL hat zumindest eine kleine Link Authority. Das Löschen von Seiten wäre daher auch eine gewisse Verschwendung in der organischen Suche.

Das Ziel ist es also, genau zu identifizieren, was erreicht werden soll. Möchte man die Seite für Suchmaschinen entfernen, jedoch für Shopbesucher behalten? Müssen Sie die Seite für Besucher und Suchmaschinen eliminieren? Ist es wichtiger, die Seite sofort loszuwerden (aus rechtlichen oder anderen Gründen) oder sollte man versuchen in Suchmaschinen mit weiteren Maßnahmen zu profitieren?

Die untenstehende Tabelle sollte helfen diesbezüglich fundierte Entscheidungen zu treffen.

7 Möglichkeiten, doppelten Inhalt zu entfernen

duplicate-content-massnahmen

Die erste Option auf der Liste, 301-Redirect, ist wohl der SEO-Star. Wann immer möglich, sollte man ein 301-Redirect verwenden, um doppelte Inhalte zu entfernen. Denn es ist die einzige Möglichkeit, welches die Kombination aus Weiterleitung des Bot der Suchmaschinen aber auch des Webbesuchers vollständig gewährleistet. Der 301-Redirect ist nicht nur ein direkter Befehl an Suchmaschinen, es wird auch die Link-Authority an die neue URL tatsächlich weitergegeben.

Sollte sich der Administrator, aus welchen Gründen auch immer, querstellen oder die Kunden weiterhin die Seite sehen sollen, so kann man Cannonical Tags versuchen. Dies muss jedoch meist von Softwareentwicklern implementiert werden. Ein Canonical Tag ist eine Angabe im Quellcode einer Webseite. Es verweist auf eine Standardressourceeine kanonische URLbei Seiten mit gleichen oder fast gleichen Inhalt. Google erhält damit die Information, um die Seiten mit Duplicate Content nicht negativ zu bewerten. Es gibt jedoch ein Restrisiko, dass Google diese Seiten nicht erkennt.

Nummer drei auf der Liste sind 302-Redirects. Diese sind mit den allmächtigen 301-Redirects verwandt. Wie der Name schon sagt, handelt es sich um eine temporäre Umleitung. Hier kommt es zu keiner Deindexierung der alten Seite, da Google davon ausgeht, dass die alte Seite wieder sichtbar sein wird.

Entfernen von Inhalten kann schädlich sein

Die verbleibenden vier Optionen de-indexieren lediglich Content. Sie leiten den Bot oder auch Shopbesucher nicht um und sie geben keine Link-Autorisierung an eine andere Seite weiter. Diese Optionen sollten nur dann verwendet werden, wenn es keine andere Möglichkeit (z.b. durch 301-Redirect oder Bereinigung von Content) gibt. Denn durch diese Maßnahmen verschwindet auch die Link-Authority der Seiten. Denn Link-Authority ist die wichtigste Währung im Suchmaschinen-Universum.

Die Verbesserung der Link-Authority wird durch mannigfaltige Maßnahmen erreicht. Oft ist es eine seltsame Kombination von Glück und ständigen Optimierungsmaßnahmen. Dabei spielen oft viele Disziplinen des Marketings wie Pressearbeit, Social Media Marketing oder auch Präsenz in Blogs oder Foren eine wesentliche Rolle. Entfernt man eine Seite, so geht diese Investition verloren. Deshalb gibt es sogar in der Google Search Console eine Möglichkeit URL´s vorübergehend auszuschließen. Mit dieser Funktion sollte man jedoch mit Vorsicht umgehen, da diese bei falscher Verwendung im schlimmsten Fall die gesamte Seite aus dem Index nehmen könnte.

Die einzige Möglichkeit, eine Seite wirklich unsichtbar für Mensch und Maschine zu machen, besteht darin, die Seite von den Servern zu entfernen, wodurch die URL dazu gezwungen wird, einen 404-Fehler „Datei nicht gefunden“ zurückzugeben oder sie auf eine neue URL umzuleiten.

Meta-Robots noindex tags und Robots.txt disallow Befehle sollten die letzten Optionen sein. Dies aus einer Kombination von Gründen. Erstens verschwenden sie Link-Authority. Noindex und robots.txt lehnen Befehle ab, die Suchmaschinen auf verschiedene Weise davon abhalten, bestimmte Seiten zu indizieren. Ist eine Seite bereits indiziert, so hat sie eine gewisse Menge an Link-Authority, so klein sie auch sein mag. Dies sollte man nicht leichtfertig verschwenden. Zweitens, Suchmaschinen haben früher diese Befehle strikt befolgt. Heute ist das nicht mehr durchgängig der Fall, vor allem bei Inhalten, die bereits indiziert wurden. Oft kann es Monate dauern, bis derartige Einträge wirksam werden. Möchte man eine Seite aus dem Index bekommen, so sollte man andere Methoden wählen.

Manuelle Bereinigung

Zu guter Letzt bleibt natürlich die manuelle Bereinigung. Tools wie Google Search Console zeigen sehr gut Duplicate Content an. Oft liegt es daran, dass Daten mangelhaft erfasst wurden. Doppelte Meta-Title oder Meta-Description entstehen oft durch mangelhafte Importe beim Anlegen von Produkten im Shopsystem. Aber auch das Kopieren von Artikeln, um die Anlage ähnlicher Artikel schneller zu machen, sind oft Stolpersteine. Auch bei der Übersetzung von Artikeln sollte man bei den wichtigsten Feldern darauf achten eindeutige Texte je nach Sprache zu verwenden.

Shopsysteme haben eine weit größere Komplexität, wenn es um SEO-Maßnahmen geht. Duplicate Content entsteht oft im Hintergrund automatisch. Oben angeführte Maßnahmen können helfen Duplicate Content zu reduzieren. Bei entsprechenden Optimierungsmaßnahmen sind wir gerne behilflich.