Duplicate Content (doppelter Inhalt) bedeutet, dass derselbe oder sehr ähnlicher Inhalt unter mehreren URLs erreichbar ist. Für Google und Ihre SEO ist das problematisch: Signale und Crawl-Budget verteilen sich, keine URL kann ihr volles Potenzial entfalten. In diesem Lexikon-Artikel erfahren Sie, was Duplicate Content ist, welche Ursachen typisch sind und wie Sie ihn mit Canonical, 301 und noindex vermeiden.
Was ist Duplicate Content? Definition
Duplicate Content liegt vor, wenn identischer oder nahezu identischer Inhalt unter mehreren URLs abrufbar ist. Google erfasst diese URLs und muss entscheiden, welche Version in den Suchergebnissen erscheinen soll. Dabei können Backlinks und Nutzersignale auf mehrere URLs verteilt werden – keine einzelne Seite sammelt genug Stärke für ein optimales Ranking.
Wichtig: Google unterscheidet zwischen bösartigem Duplicate Content (z. B. geklauter oder gespinnter Inhalt) und technisch bedingten Duplikaten (z. B. gleiche Seite mit und ohne Parameter). Technische Duplikate lassen sich mit den richtigen Maßnahmen gut in den Griff bekommen.
Typische Ursachen
- URL-Varianten: Dieselbe Seite unter https und http, mit und ohne www, mit und ohne Schrägstrich am Ende (beispiel.de/seite vs. beispiel.de/seite/).
- Parameter-URLs: Filter, Sortierung, Session-IDs (z. B. ?sort=preis, ?session=abc). Jede Kombination erzeugt eine eigene URL, oft mit gleichem Inhalt.
- Druckversionen / PDFs: Gleicher Inhalt als HTML und als PDF – zwei indexierbare URLs.
- Syndication / Kopien: Inhalte, die auf anderen Domains oder Partnerseiten erscheinen. Ohne klare Quellenangabe oder Canonical kann Google unsicher sein, welche Version die ursprüngliche ist.
- Seiten mit minimalen Unterschieden: Viele ähnliche Seiten (z. B. nur Stadtname getauscht) ohne echten Mehrwert – Thin Content bzw. Near-Duplicate.
Für technisches SEO ist es zentral, solche Duplikate zu erkennen und zu konsolidieren.
Folgen für SEO
Google will in der Regel nur eine Version eines Inhalts prominent anzeigen. Bei Duplicate Content:
- Crawl-Budget wird für doppelte URLs verbraucht.
- Link-Signale (Backlinks, interne Links) teilen sich auf mehrere URLs auf.
- Es kann unklar sein, welche URL für ein Keyword ranken soll – Konkurrenz mit sich selbst.
- In seltenen Fällen wirkt massenhafter doppelter Inhalt negativ auf die Vertrauenswürdigkeit der Seite.
Lösungen: Canonical, 301, noindex
Canonical Tag (rel=canonical): Auf jeder doppelten oder varianten URL setzen Sie im <head> einen Link auf die gewünschte Haupt-URL. Google nutzt das als starken Hinweis, welche URL indexiert und gerankt werden soll. Details im Lexikon-Artikel Canonical URL.
301-Weiterleitung: Wenn eine URL dauerhaft nicht mehr genutzt werden soll (z. B. alte Struktur, www auf non-www), leiten Sie sie per 301 auf die Ziel-URL um. So werden Signale gebündelt und Nutzer landen auf der richtigen Seite.
noindex: Für Seiten, die nicht in der Suche erscheinen sollen (z. B. interne Suchergebnisse, Danke-Seiten), können Sie noindex setzen. Dann wird die Seite nicht in den Index aufgenommen; Duplicate Content entfällt für diese URL.
robots.txt: Disallow verhindert nur das Crawling, nicht die Indexierung. Für echte Duplikate sind Canonical oder 301 die passenderen Lösungen. Die robots.txt eignet sich, um Crawler von irrelevanten Bereichen fernzuhalten.
Zusammenfassung
- Duplicate Content = derselbe oder sehr ähnlicher Inhalt unter mehreren URLs. Verwässert Signale und Crawl-Budget.
- Ursachen: URL-Varianten (www, Parameter, Schrägstrich), Druckversionen, Syndication, Thin Content.
- Lösungen: Canonical Tag für bevorzugte URL, 301 für dauerhafte Umleitung, noindex für nicht indexierwürdige Seiten.
- Technische Duplikate systematisch bereinigen – Teil eines soliden SEO-Audits und technischen SEO.
Praxis-Tipp: Im SEO-Audit prüfen wir Duplicate-Content-Risiken und URL-Struktur. Kontaktieren Sie uns für eine unverbindliche Erstberatung.



