SEO
10 Minuten

Meta Robots Tag: Der ultimative SEO-Ratgeber für Indexierung & Noindex

Stefanie Sommer

9.4.2025

Stell dir vor, du könntest Suchmaschinen genau sagen, welche Seiten deiner Website sie indexieren sollen und welche nicht. Genau das ermöglicht der Meta Robots Tag. Für jeden, der im SEO arbeitet – ob Einsteiger oder fortgeschrittener SEO-Manager – ist dieses kleine HTML-Tag ein mächtiges Werkzeug. Richtig eingesetzt hilft es, unnötige oder sensible Seiten aus den Suchergebnissen fernzuhalten und das Ranking-Potenzial deiner wichtigen Seiten zu schützen. Falsch angewendet kann es jedoch dazu führen, dass wertvolle Inhalte unsichtbar in Googles Tiefen verschwinden.

In diesem praxisnahen Ratgeber erklären wir dir verständlich, was der Meta Robots Tag ist, wie er funktioniert und wie du ihn gezielt für deine SEO-Strategie einsetzt. Wir beleuchten typische Anwendungsfälle, häufige Fehler und Irrtümer und geben Best Practices sowie Lösungen aus SEO-Sicht an die Hand. Egal ob du gerade erst mit SEO startest oder schon Erfahrung hast – hier findest du wertvolles Wissen und Tipps, um die Indexierung deiner Website optimal zu steuern. Los geht’s!

Was ist der Meta Tag for Robots und warum ist er wichtig?

Der Meta Robots Tag (auch „Robots Meta-Tag“ genannt) ist ein HTML-Befehl, der im <head>-Bereich einer Seite platziert wird. Er teilt Suchmaschinen-Crawlern (wie Googlebot, Bingbot & Co.) mit, wie sie mit dieser spezifischen Seite umgehen sollen. Im Gegensatz zur robots.txt-Datei, die auf Domain-Ebene regelt, welche Bereiche einer Website gecrawlt werden dürfen, wirkt der Meta Robots Tag seitenindividuell. Er legt fest, ob eine einzelne Seite indexiert werden darf und ob den darauf befindlichen Links gefolgt werden soll.

So sieht ein Meta Robots Tag im Quellcode aus: <meta name="robots" content="noindex, follow" />. Mit solchen Anweisungen bestimmst du zum Beispiel, dass eine Seite nicht in den Suchindex aufgenommen wird (noindex), aber der Crawler dennoch allen Links darauf folgen darf (follow). Diese Feinsteuerung ist für SEOs enorm wichtig, um Indexierungsbudget sinnvoll zu nutzen und unerwünschte Inhalte aus den Suchergebnissen fernzuhalten.

Warum ist das wichtig?

Jede Seite im Google-Index sollte idealerweise hochwertigen, für Nutzer relevanten Content bieten. Seiten, die dort nichts zu suchen haben – etwa interne Suchresultate, Duplikate oder veraltete Inhalte – können dem Gesamtbild deiner Website schaden oder wichtige Ressourcen des Crawlers binden. Mit dem Meta Robots Tag behältst du die Kontrolle: Du entscheidest, welche Seiten Google & Co. zeigen dürfen und wohin sie weiter surfen sollen. Gerade für SEO-Manager und interne Marketer ist dieses Know-how Gold wert, um die Sichtbarkeit der Website gezielt zu steuern.

Kurz gesagt: Der Meta Robots Tag ist dein direkter „Draht“ zum Suchmaschinen-Crawler. Nutze ihn mit Bedacht – er kann über Ranking und Unsichtbarkeit einer Seite entscheiden.

Index vs. Noindex: Welche Seiten sollen im Index landen?

Eine der Hauptfunktionen des Meta Robots Tags ist die Entscheidung Index oder Noindex. Diese Direktiven bestimmen, ob eine Seite in den Suchmaschinen-Index aufgenommen wird (Index) oder eben nicht (Noindex). Schauen wir uns beide Optionen im Detail an.

Index – Seiten für Suchmaschinen freigeben

Die Direktive index signalisiert: „Diese Seite darf in den Suchergebnissen erscheinen.“ Standardmäßig gehen Suchmaschinen immer davon aus, dass deine Seite indexiert werden darf, wenn kein Meta Robots Tag vorhanden ist. Das heißt, wenn du gar nichts angibst, ist das Verhalten so, als stünde index dort. In der Praxis muss man index also selten explizit hinschreiben – es ist die Standardeinstellung.

Beispiel: Dein neu erstellter Blogpost mit hochwertigem Content soll natürlich gefunden werden. Du gibst keinen Meta Robots Tag an, also wird Google ihn indexieren (vorausgesetzt, die Seite ist crawlbar und es gibt keinen anderen entgegenwirkenden Faktor). Die Indexierung bedeutet, dass diese URL in den Suchindex aufgenommen wird und für relevante Suchanfragen erscheinen kann.

Noindex – Seiten gezielt von der Indexierung ausschließen

Mit noindex teilst du den Crawlern mit: „Diese Seite bitte nicht im Index aufnehmen.“ Sobald Google diese Anweisung beim Crawlen entdeckt, wird die Seite bei der nächsten Aktualisierung aus den Suchergebnissen entfernt bzw. gar nicht erst aufgenommen. Wichtig: Die Suchmaschine muss die Seite crawlen können, um den Noindex-Tag zu sehen. Nur dann kann sie der Anweisung folgen.

  • Was passiert bei Noindex? Solange der Tag präsent ist, wird die Seite nicht in den Suchergebnissen erscheinen. War sie zuvor schon im Index, wird sie nach einiger Zeit entfernt. (Dieser Prozess ist nicht sofort, dazu später mehr.)
  • Wofür nutzt man Noindex? Für alle Seiten, die keinen Mehrwert in der Suche bieten oder aus anderen Gründen nicht öffentlich auffindbar sein sollen. Typische Beispiele schauen wir uns weiter unten an (Stichwort: interne Seiten, Duplicate Content, Thank-You-Seiten etc.).
  • Vorsicht: Noindex ist ein scharfes Schwert. Setzt du es bei der falschen Seite ein – etwa einer wichtigen Produkt- oder Kategorieseite – verlierst du Rankings und Traffic, da die Seite vollständig aus Google & Co. verschwindet. Gerade in großen Websites sollte Noindex sehr gezielt und sparsam eingesetzt werden.

Merke: Noindex entfernt eine Seite hart aus dem Index, während ein Canonical-Tag (eines anderen SEO-Steuerungsinstruments) eher eine Empfehlung zur Indexierung einer anderen Seite ist. Google behandelt Canonicals als Hinweis, Noindex dagegen als direkte Anweisung. Wenn Canonical-Strategien versagen oder nicht ausreichen, kann Noindex als nächster Schritt dienen – aber immer mit Bedacht.

Follow vs. Nofollow: Sollen Crawler den Links folgen?

Die zweite wichtige Funktion des Meta Robots Tags betrifft das Verfolgen von Links. Hier stehen sich follow und nofollow gegenüber. Damit steuerst du, ob die Links auf einer Seite von Suchmaschinen-Crawlern weiter verfolgt und in deren Bewertung einbezogen werden sollen oder nicht.

Follow – Linkweitergabe erlauben (Standard)

Die Anweisung follow bedeutet: „Folgt allen Links auf dieser Seite.“ Das ist ebenfalls Standardverhalten für Crawler. Enthält eine Seite also keine anderslautende Anweisung, werden Google und andere Bots allen entdeckten Links folgen, die Seite dahinter crawlen (sofern erlaubt) und ggf. in den Index aufnehmen. follow muss daher im Code nicht ausdrücklich stehen – es wird automatisch angenommen.

SEO-Auswirkung: follow ermöglicht es, dass Linkjuice (also Ranking-Kraft durch Verlinkungen) weitergegeben wird. Interne Verlinkungen können so ihre positive Wirkung entfalten, und auch externe Links würde der Crawler besuchen (bei externen entscheidet allerdings der Linkgeber über rel="nofollow" Attribut, dazu gleich mehr). Kurz: Follow hält den Crawler-Fluss aufrecht. Eine Seite mit index, follow ist ein normaler Bestandteil des Web, voll in den Index eingebunden und verteilt ihre Linkkraft weiter.

Nofollow – Links nicht bewerten und nicht weiterverfolgen

Mit nofollow gibst du die Anweisung: „Folgt den Links auf dieser Seite nicht.“ Das heißt, der Crawler schaut sich zwar den Inhalt der Seite an, ignoriert aber sämtliche Links darauf – als wären sie Sackgassen. Diese Option wird eingesetzt, um gezielt Linkweitergabe zu unterbinden.

Ein paar wichtige Punkte zu nofollow:

  • Anwendung: In der Praxis nutzt man nofollow als Meta Robots Einstellung sehr selten global für eine ganze Seite. Häufiger kommt rel="nofollow" auf Link-Ebene vor – z.B. um einzelne externe Links als unvertrauenswürdig zu markieren oder bezahlte Links zu entwerten. Global über den Meta Tag alle Links einer Seite auf einmal auf nofollow zu setzen, ist nur in Ausnahmefällen sinnvoll (etwa bei Archivseiten mit endlosen unwichtigen Links, oder einer Seite, die ausschließlich ein Linkverzeichnis darstellt, das komplett nicht gewertet werden soll).
  • Effekt auf SEO: Nofollow bedeutet, kein Linkjuice fließt weiter. Interne Verlinkungsstrukturen würden unterbrochen. Früher wurde dies manchmal benutzt, um PageRank-Sculpting zu betreiben (die Verteilung von Linkkraft bewusst zu steuern), aber heute ist das weniger relevant. Suchmaschinen sind auch smarter geworden: Google betrachtet Nofollow-Links mittlerweile als Hinweis und nicht mehr als strikte Anweisung für die Indexierung. In der Regel werden Nofollow-Links zwar nicht in die Rankingberechnung einbezogen, aber Google kann theoretisch dennoch entscheiden, einer Nofollow-Verknüpfung zu folgen, um neue Inhalte zu entdecken. Verlasse dich also nicht darauf, dass Nofollow immer einen Crawler 100% abhält – im Normalfall tut es das, aber garantieren kann man es nicht.
  • Intern vs. Extern: Interne Seiten sollten möglichst nicht per Nofollow entwertet werden, da du sonst wertvolle interne Verlinkung kappst und den Crawler im Kreis führst. Für externe Links kannst du Nofollow verwenden, wenn du keine Empfehlung aussprechen möchtest (z.B. bei User-generierten Inhalten, in Kommentaren, oder bei bezahlten Partnerschaften gemäß Googles Richtlinien).

Merke: Fehlt im Meta Robots Tag ein Hinweis zum Folgen, nehmen Crawler follow an. nofollow sollte gezielt und sparsam eingesetzt werden. Denk daran, dass noindex, nofollow zusammen eine Art Schwarzes Loch bildet: Die Seite verschwindet aus dem Index und der Crawler findet von dort aus keine weiteren Wege. Im Ergebnis vergeudest du Crawlressourcen. Daher setzen SEOs in der Regel eher noindex, follow – so bleibt die Seite zwar unsichtbar in der Suche, aber Links darauf werden weiterhin verfolgt (beispielsweise damit interne Verlinkungen zu noch indexierten Seiten nicht ins Leere laufen).

Wichtige Kombinationen des Meta Robots Tags verstehen

Die Meta Robots Anweisungen lassen sich kombinieren. Insgesamt gibt es vier mögliche Kombinationen, wobei zwei besonders relevant sind:

  • index, followStandardfall: Seite indexieren, Links folgen.
  • noindex, follow – Seite nicht indexieren, aber Links darauf verfolgen. (häufige Einstellung für auszuschließende Seiten)
  • index, nofollow – Seite indexieren, aber keinen Links darauf folgen. (selten genutzt)
  • noindex, nofollow – Seite nicht indexieren und Links nicht folgen. (Edge-Case, zu vermeiden wenn möglich)

Index, Follow (Default):

Wie erwähnt, ist dies das Verhalten ohne speziellen Tag. Diese Kombination brauchst du aktiv nur anzugeben, wenn du z.B. sicherstellen willst, dass ein zuvor anders konfigurierter Bereich wieder indexiert wird (etwa wenn du versehentlich mal Noindex gesetzt hattest und es korrigieren willst). Ansonsten kannst du es der Suchmaschine überlassen – sie indexiert und folgt standardmäßig.

Noindex, Follow (Empfohlen für auszuschließende Seiten):

Diese Einstellung nutzt man, wenn man eine Seite aus den Suchergebnissen fernhalten möchte, ohne den Fluss des Crawlers zu stören. Beispiele: Du hast eine interne „Danke“-Seite nach einer Formulareinsendung. Die Inhalte darauf sind für andere Nutzer nicht relevant, also soll sie nicht ranken (Noindex). Gleichzeitig enthält sie vielleicht einen Link zurück zur Startseite oder andere hilfreiche Links – diese dürfen gerne gecrawlt werden (Follow). Noindex, Follow ist Best Practice für die meisten Fälle, in denen man Seiten ausschließen will. So bleiben z.B. auch A/B-Test-Landingpages für Kampagnen oder interne Suchergebnisseiten aus dem Index draußen, leiten aber Linkkraft weiter.

Index, Nofollow (Spezialfall):

Diese Kombination sagt: „Die Seite darf im Index sein, aber vertraue keinen Links darauf.“ Wann könnte das sinnvoll sein? Eigentlich kaum im normalen SEO-Alltag. Wenn du einer Seite so wenig vertraust, dass keiner ihrer Links zählen soll, möchtest du sie meist auch gar nicht indexiert haben. Ein denkbarer Fall: Eine öffentliche Seite mit einem riesigen Linkverzeichnis, das du nicht werten lassen willst (z.B. ein usergeneriertes Linklisting). Hier könntest du theoretisch index, nofollow setzen – die Seite selbst kann gefunden werden (wenn sie z.B. einen informativen Text enthält), aber alle aufgeführten Links darin gelten als „nicht empfohlen“. Trotzdem: Solche Szenarien sind selten. Meist nutzt man Nofollow direkt an einzelnen Links, nicht seitenweit.

Noindex, Nofollow (zu vermeiden):

Diese Einstellung schließt die Seite aus dem Index aus und stoppt die Linkverfolgung. Effektiv isolierst du damit die Seite komplett. Der Crawler kommt hin, sieht Noindex und Nofollow, nimmt nichts mit und geht wieder. Das ergibt nur in wenigen Edge-Cases Sinn – z.B. vielleicht für eine temporäre Testseite, von der du 100% sicher bist, dass keine Links darauf wichtig sind. In den meisten Fällen wäre aber selbst dann eine Absicherung per Passwort oder Disallow in robots.txt besser, anstatt Crawler überhaupt drauf zu lassen. Fazit: noindex, nofollow macht den Crawler blind und taub für diese Seite und alles darauf – setze das nur ein, wenn du genau weißt, was du tust.

Typische Anwendungsfälle und Best Practices für Noindex

Der gezielte Einsatz von Noindex kann deine SEO-Performance verbessern, indem er irrelevante oder problematische Seiten aus dem Suchindex fernhält. Hier sind einige praxisnahe Beispiele, wann du Seiten auf Noindex setzen solltest – und wann nicht:

Geeignete Seiten für Noindex: (“Diese Seiten möchte ich nicht in Google sehen”)

  • Interne Suchergebnisse: Seiten, die Suchergebnisse auf deiner eigenen Website darstellen (z.B. ?s=keyword oder Filtersuchseiten). Sie bieten dem externen Nutzer keinen Mehrwert auf Google und führen oft zu Duplicate Content. -> Lösung: noindex, follow einsetzen, damit Google diese Seiten ignoriert, aber etwaige Produktlinks darin dennoch findet.
  • Danke-/Bestätigungsseiten: Nach einer Kontaktanfrage oder Bestellung landen User oft auf „Danke für Ihre Anfrage“ Seiten. Diese haben keinen eigenständigen Content für die Suche. -> Noindex hält sie aus dem Index raus.
  • Login- und Konto-Bereiche: Login-Seiten, Warenkorb, Benutzerprofil etc. sollten nicht öffentlich auffindbar sein. Sie sind zudem oft sensibel. -> Noindex (und zusätzlich eventuell per robots.txt absichern, siehe weiter unten).
  • Seiten mit wenig oder keinem Content: Platzhalterseiten, „Under Construction“-Seiten oder sehr dünne Inhalte. Bevor solche dünnen Seiten im Index auftauchen und die Qualität deiner Domain runterziehen, lieber auf Noindex setzen, bis sie fertig sind.
  • Duplikate oder Druckversionen: Hast du mehrere Versionen derselben Inhalte (z.B. Druckversion einer Seite ohne Mehrwert)? -> Eine Version (die Hauptseite) indexieren, die andere mit Noindex versehen oder besser per Canonical verknüpfen. (Wenn technisch möglich, ist Canonical hier oft vorzuziehen, damit Linksignale vereint bleiben.)
  • Kampagnen-Landingpages ohne SEO-Wert: Teams im Performance Marketing erstellen oft zahlreiche Landingpages für Ads, die nicht für Suchmaschinen optimiert sind und eventuell nur kurzfristig relevant sind. -> Diese Seiten kannst du mit Noindex, Follow kennzeichnen, damit sie nicht im organischen Index auftauchen und evtl. interne Verlinkungen trotzdem zählen.

Seiten, bei denen kein Noindex gesetzt werden sollte: (“Diese Seiten sollen indexiert bleiben”)

  • Wichtige Produkt- und Kategorieseiten: Im E-Commerce z.B. möchtest du in der Regel alle relevanten Produkte und Kategorieübersichten indexiert haben. Auch Produktvarianten (z.B. andere Farbe oder Größe) sollten meist nicht per Noindex ausgeschlossen werden, da sie für Nutzer nützlich sein können. Hier wäre eher eine Canonical-Lösung angebracht, falls sie aus SEO-Sicht zusammengefasst werden sollen.
  • Hochwertige Content-Seiten: Jeder Blog-Artikel, jede Ratgeber-Seite (so wie diese hier) und generell Seiten, die Besucher über Google finden sollen, dürfen natürlich nicht auf Noindex stehen. Klingt trivial, aber es passiert schnell, dass man beim Kopieren von Seitenvorlagen versehentlich einen Noindex mitkopiert – fatal für die Sichtbarkeit! (Tipp: Sieh dir in der Google Search Console an, ob wichtige Seiten als „Ausgeschlossen durch noindex“ gemeldet werden.)
  • Seiten, die per Canonical auf andere zeigen: Wenn Seite A einen Canonical-Link zu Seite B hat (also B als bevorzugte Index-Version angibt), sollte Seite A nicht auch noch Noindex haben. Entweder oder. Ein häufiger Fehler ist, z.B. Faceted-Search-Seiten mit Canonical und Noindex zu versehen. Das ist redundant und kann zu Verwirrung führen – entweder setze einen Canonical (wenn du die Seite zwar crawlen, aber nicht indexieren lassen willst zugunsten einer anderen) oder Noindex (wenn die Seite wirklich gar nicht auftauchen soll). Beide zusammen sind unnötig, im Worst Case ignoriert Google dann evtl. den Canonical oder verschwendet Crawlressourcen.

Zusammengefasst: Noindex eignet sich hervorragend, um bestimmte Seitentypen (intern, dupliziert, unrelevant) aus den Suchergebnissen rauszuhalten. Aber überlege immer, ob es bessere Alternativen gibt (Canonical, Zugangsschutz, etc.) und ob du mit dem Ausschluss nicht versehentlich nützliche Inhalte versteckst. Jede Seite, die du auf Noindex setzt, sollte bewusst gewählt sein.

Häufige Fehler und Irrtümer beim Meta Robots Tag (Ursachen, Auswirkungen & Lösungen)

Trotz seiner einfachen Syntax kommt es in der Praxis oft zu Fehlern beim Einsatz des Meta Robots Tags. Diese Fehler können von harmlos bis katastrophal reichen. Hier sind die häufigsten Stolperfallen – jeweils mit Ursache, möglicher Auswirkung auf die SEO und der entsprechenden Lösung aus Sicht eines SEOs:

1. Noindex + robots.txt-Disallow auf derselben Seite

  • Fehler/Ursache: Du sperrst eine Seite in der robots.txt (Disallow), setzt aber gleichzeitig auf der Seite selbst einen Noindex. Viele tun dies in der Annahme, doppelt hält besser.
  • Auswirkung: Ein Paradoxon – der Crawler darf die Seite aufgrund der robots.txt nicht aufrufen und sieht somit den Noindex-Tag gar nicht. Die Folge: Wenn die Seite zuvor indexiert war, bleibt sie unter Umständen weiter im Index (Google kennt die URL ja, darf sie nur nicht crawlen). Sie erscheint dann eventuell als „Seite im Index, jedoch durch robots.txt blockiert“ (ein typischer Bericht in der Search Console). So bleibt das unerwünschte Ergebnis sichtbar, oft ohne Inhalt oder mit altem Stand.
  • Lösung: Nicht kombinieren! Entscheide dich je nach Ziel entweder für noindex oder für Disallow. Faustregel:
    • Möchtest du eine Seite aus dem Index entfernen, dann erlaube Google den Zugriff und nutze Noindex. Sperre sie erst danach via robots.txt, wenn überhaupt nötig. (Tipp aus der Praxis: Erst alle betreffenden URLs auf Noindex setzen und warten, bis sie verschwinden. Später kannst du sie immer noch per robots.txt aussperren, um Crawl-Budget zu sparen, wenn sie sicher deindexiert sind.)
    • Möchtest du eine Seite gar nicht erst crawlen lassen (z.B. aus Sicherheitsgründen oder weil sie irrelevant ist, aber auch niemals in den Index soll), dann nutze Disallow in der robots.txt ohne Noindex. Beispielsweise für Admin-Bereiche, Tracking-Parameter-Seiten oder ähnliches, wo du gar keine Inhalte preisgeben willst.
      Merke: Noindex funktioniert nur, wenn Crawler die Seite sehen dürfen. Ein aktuelles Google-Statement (2024) betont genau das: Verwende nicht Disallow und Noindex gleichzeitig, da eine Disallow-Seite sonst trotz Noindex indiziert bleiben kann – allerdings ohne Inhalt. Besser: Lass Google die Seite crawlen, um den Noindex zu greifen, oder sperr sie komplett ohne Noindex.

2. Noindex vs. Canonical verwechselt oder doppelt gemoppelt

  • Fehler/Ursache: Man markiert Seiten mit Noindex, obwohl eigentlich ein Canonical angebracht wäre (oder umgekehrt). Ein Beispiel: Du hast sehr ähnliche Seiten (z.B. Filterseiten in einem Shop) und willst eigentlich, dass nur eine Hauptseite rankt. Statt Canonical zu setzen, nimmst du fälschlich alle Alternativen aus dem Index mit Noindex. Oder du setzt beides: Die Alternativseiten haben einen Canonical zur Hauptseite und zusätzlich Noindex.
  • Auswirkung: In Fällen, wo Canonical genügt, kann ein Noindex zu streng sein. Noindex kickt die Seite komplett raus – selbst wenn sie vielleicht noch Traffic bringen könnte, wenn der Canonical nicht greift. Außerdem gehen möglicherweise interne Links von dieser Seite verloren, wenn du Noindex+Nofollow einsetzt. Umgekehrt, eine Seite mit Canonical auf sich selbst und Noindex (ja, sowas passiert durch Kopierfehler) wäre unsinnig – sie würde sich selbst als Hauptseite angeben, aber dennoch nie indexiert.
  • Lösung: Klare Strategie entwickeln: Ist es Duplicate Content oder Varianten-Problem? -> Nutze Canonical-Tags, damit Google die Hauptversion versteht, aber crawle die Alternativen weiter (ohne Noindex), sodass z.B. Bewertungen oder andere Signale übertragen werden können. Nur wenn eine Seite wirklich gar nicht erscheinen soll, greife zu Noindex. Und dann meist ohne Canonical, außer der Spezialfall: Eine Noindex-Seite darf durchaus einen Canonical auf eine andere Seite haben (Google ignoriert ihn aber vermutlich, da die Seite eh nicht indexiert wird). Wichtig ist: mische nicht widersprüchliche Anweisungen. Entweder sag „nimm A statt B“ (Canonical) oder „nimm B gar nicht“ (Noindex).

3. Globaler Nofollow-Einsatz (Link-Sculpting von gestern)

  • Fehler/Ursache: In älteren SEO-Strategien wurde empfohlen, weniger wichtige Links sitewide auf Nofollow zu setzen, um „Linkkraft zu sparen“. Manche Webmaster haben sogar ganze Seitensektionen oder das gesamte Menü per Meta Robots nofollow entwertet.
  • Auswirkung: Crawler-Sackgassen. Interne Navigation mit Nofollow zu versehen, hindert Google daran, deine Website logisch zu durchdringen. Wichtige Seiten werden vielleicht nicht gefunden oder intern nicht mehr kontextuell verknüpft. Das schadet mehr, als dass es nützt. Außerdem verschenkt man Ranking-Potential, weil interne Links auch für Google ein Hinweis auf die Wichtigkeit von Seiten sind. Ein globaler Nofollow isoliert Seiten voneinander.
  • Lösung: Nofollow sparsam und gezielt verwenden. Für interne Links praktisch gar nicht, außer in absoluten Ausnahmefällen. Wenn du „Linkjuice“ lenken willst, mach es über clevere interne Verlinkungsstruktur (z.B. welche Seiten du häufig aus dem Menü verlinkst), aber nicht über Nofollow-Tags. Google selber rät davon ab. Heutzutage bewertet Google Nofollow zwar als Hinweis, könnte also dennoch crawlen – aber die Links fließen definitiv nicht ins Ranking ein. Kurzum: Konzentriere dich lieber darauf, gute interne Verlinkung zu nutzen, anstatt Linkjuice künstlich aufstauen zu wollen.

4. Hreflang-Verweise auf Noindex-Seiten

  • Fehler/Ursache: Auf internationalisierten Websites kommt es vor, dass hreflang-Links (die Sprach-/Länder-Versionen verknüpfen) auf Seiten zeigen, die Noindex haben. Oder umgekehrt: Eine Noindex-Seite enthält hreflang-Angaben zu anderen Seiten. Oft passiert das, wenn man z.B. eine bestimmte Sprachversion vom Index ausschließen will, aber vergisst, sie aus den hreflang-Sets rauszunehmen.
  • Auswirkung: Hreflang-Tags sollen Google helfen, gleichwertige Seiten in verschiedenen Sprachen zu erkennen und passend auszuspielen. Wenn jedoch eine dieser verknüpften Seiten Noindex ist, stiftet das Verwirrung. Google könnte die hreflang-Gruppe nicht richtig auflösen, da ein Mitglied gar nicht indexiert werden soll. Im schlimmsten Fall ignoriert Google die hreflang-Angaben komplett, weil etwas nicht konsistent ist. Außerdem macht es wenig Sinn: Warum einer Suchmaschine alternative Sprachseiten anbieten, die sie gar nicht indexieren darf?
  • Lösung: Konsistenz sicherstellen: In hreflang-Clustern dürfen nur indexierbare Seiten enthalten sein. Falls du z.B. bestimmte Regionen nicht bedienen willst, ist es besser, diese hreflang-Einträge ganz wegzulassen, anstatt die Seiten auf Noindex zu setzen und dennoch zu referenzieren. Überprüfe regelmäßig (gerade nach Website-Updates), ob irgend eine Seite mit noindex zufällig noch hreflang-Verweise hat oder von anderen hreflang-Tags referenziert wird. Bereinige solche Fälle, um klare Signale an Google zu senden.

5. Noindex in der Entwicklungsumgebung nicht entfernt

  • Fehler/Ursache: Während eines Website-Relaunches oder auf einer Staging-Umgebung wird häufig ein globaler Noindex gesetzt, damit unfertige Inhalte nicht in Google auftauchen. Das ist zunächst richtig. Der Fehler passiert, wenn beim Livegang vergessen wird, den Noindex-Tag zu entfernen. Plötzlich ist die frisch relaunchte Seite für Google unsichtbar – ein Albtraum!
  • Auswirkung: Solange der Noindex auf der Live-Seite aktiv ist, verliert die Seite täglich Rankings. Stammnutzer gelangen vielleicht noch direkt drauf, aber Neukunden finden nichts mehr in der Suche. Traffic und Umsatz können dramatisch einbrechen. Jeder Tag zählt hier. Dieser Fehler ist leider einer der teuersten SEO-Schnitzer, die passieren können.
  • Lösung: Checks und Absicherung: Schon beim Aufsetzen der Entwicklungsumgebung sollte diese passwortgeschützt oder per IP-Sperre geschützt werden, sodass Crawler gar nicht hinkommen. Der Noindex dient dann nur als zusätzliches Netz, falls doch etwas öffentlich würde. Beim Launch gehört „Noindex entfernen“ auf die Launch-Checkliste ganz nach oben! Führ am besten vor und nach dem Livegang einen Crawl (z.B. mit Screaming Frog) durch und filtere nach Seiten mit Noindex, um sicherzugehen, dass keine produktive Seite versehentlich ausgeschlossen bleibt. Und wenn es passiert ist: Schnellstmöglich den Tag entfernen und einen erneuten Crawl durch Google veranlassen (z.B. über die Search Console „Live-URL testen“ und „Indexierung beantragen“).

6. Erwartung: „Noindex wirkt sofort“

  • Irrtum/Ursache: Viele denken, sobald sie einer Seite noindex verpassen, ist sie sofort aus den Suchergebnissen verschwunden. Diese Annahme ist verständlich, aber so funktioniert es nicht.
  • Auswirkung: Du setzt Noindex, überprüfst eine Stunde später Google – und die Seite ist noch da. Verunsicherung macht sich breit: Hat es nicht geklappt? Ignoriert Google mich? Im schlimmsten Fall wird hektisch rumprobiert – vielleicht zusätzlich noch über die Search Console entfernt, robots.txt geändert etc., was zu einem Chaos an Signalen führt.
  • Lösung: Geduld und ggfs. Beschleunigung: Noindex greift, sobald Google die Seite neu gecrawlt und verarbeitet hat. Je nach Crawlrate kann das von ein paar Stunden bis mehrere Wochen dauern. In der Google Search Console unter „Indexierung > Seiten“ kannst du sehen, welche Seiten als „ausgeschlossen durch Noindex“ markiert sind – das zeigt, dass Google den Tag erkannt hat. Wenn es schnell gehen muss, nutze das Entfernungstool der Search Console, um die URL temporär aus den Suchergebnissen zu entfernen. Das ist ein Notfallhebel, der sofort zieht, aber parallel sollte die Seite natürlich weiterhin Noindex tragen, damit sie auch dauerhaft fernbleibt. Grundsätzlich gilt: Keine Panik, Noindex braucht etwas Zeit. Für große Websites mit vielen URLs gilt das besonders – hier kann die vollständige De-Indexierung Monate dauern, bis Google alle erwischt. Das ist normal.

7. Noindex-Seiten in der XML-Sitemap

  • Fehler/Ursache: Deine XML-Sitemap listet alle Seiten auf, auch jene, die eigentlich Noindex sind. Das passiert, wenn das CMS/Sitemap-Plugin nicht zwischen indexierbaren und nicht-indexierbaren Seiten unterscheidet.
  • Auswirkung: Google findet in der Sitemap eine URL und denkt, sie soll indexiert werden, sieht dann aber auf der Seite den Noindex. Das ist kein Weltuntergang – Google markiert das in der Search Console oft als Hinweis „URL in Sitemap, aber durch Noindex ausgeschlossen“. Es widerspricht sich ein wenig und könnte Crawler-Ressourcen verschwenden, da Google immer wieder prüft „ist die vielleicht jetzt indexierbar?“.
  • Lösung: Sitemap bereinigen: Am besten listest du in deiner Sitemap nur Seiten, die indexiert werden sollen. Noindex-Seiten kannst du weglassen. Damit schickst du klare Signale: was in der Sitemap steht, soll rein, der Rest ist entweder nicht so wichtig oder bewusst ausgeschlossen. Die meisten modernen SEO-Plugins oder CMS haben Optionen, um z.B. Dankeseiten oder Kategorieseiten mit Noindex von der Sitemap auszunehmen.

Dies sind nur einige häufige Fehler. Wichtig ist: Jedes Mal, wenn du den Meta Robots Tag einsetzt, frage dich warum und prüfe die Auswirkungen. Ein kleiner Tippfehler oder Denkfehler („Ups, die falsche Seite auf Noindex gesetzt!“) kann erhebliche Folgen haben. Im Zweifelsfall ziehe einen erfahrenen SEO hinzu oder teste Änderungen erst in kleinerem Umfang.

Interner Tipp: Nutze Tools wie Screaming Frog, SISTRIX Optimizer oder Ahrefs Crawler, um deine Website regelmäßig zu checken. Sie zeigen dir schnell, wo Meta-Robots-Anweisungen stehen und ob es z.B. Seiten mit Noindex gibt, die trotzdem in der Sitemap sind oder wichtige Seiten, die versehentlich auf Noindex/Nofollow gesetzt wurden. Auch die Google Search Console ist dein Freund: Im Indexierungsbericht erkennst du sofort, wenn URLs „Ausgeschlossen durch das noindex-Tag“ sind oder andere Indexierungsprobleme auftreten. So kannst du Fehler frühzeitig aufdecken und beheben.

Fazit: Key Takeaways zum Meta Robots Tag

Der Meta Robots Tag ist ein mächtiges Steuerungsinstrument im SEO, mit dem du für jede einzelne Seite festlegst, ob sie indexiert wird und wie Crawler mit ihr umgehen. Richtig eingesetzt, hilfst du Suchmaschinen, sich auf die wichtigen Seiten zu konzentrieren und vermeidest, dass irrelevante oder heikle Inhalte in den Suchergebnissen auftauchen. Zum Abschluss die wichtigsten Erkenntnisse und Tipps auf einen Blick:

  • Meta Robots = Seitenweises Crawling- & Indexing-Kontrollzentrum: Über <meta name="robots" content="..."> steuerst du Indexierung (index/noindex) und Linkverfolgung (follow/nofollow) pro Seite. Was nicht in den Tag geschrieben wird, bleibt auf Standardeinstellung (index, follow).
  • Noindex bewusst und gezielt nutzen: Setze noindex nur dort ein, wo du Seiten wirklich aus den Suchergebnissen herausnehmen willst (z.B. interne Suche, Danke-Seiten, Duplikate). Bedenke, dass diese Seiten dann keinen Traffic über Suche mehr liefern können. Wichtige Seiten niemals auf Noindex!
  • Nicht mit robots.txt widersprechen: Vermeide die Kombination von Disallow (robots.txt) und noindex. Entscheide je nach Zielsetzung: Crawlen erlauben, um Noindex wirken zu lassen, oder Crawling per Disallow verbieten, wenn Indexierung erst gar kein Thema sein soll (z.B. interne Login-Seiten). Doppelte Sperren verwirren nur.
  • Follow/Nofollow klug handhaben: Erlaube Crawlern in der Regel, Links zu folgen (follow), damit deine Website vollständig erfasst wird und Linkjuice fließen kann. Globales nofollow schneidet Verbindungen ab – setze es nur in Ausnahmefällen. Für externe Links kannst du gezielt rel="nofollow" nutzen, intern in der Regel nicht.
  • Regelmäßig prüfen: Mache es dir zur Gewohnheit, deine Seiten auf unerwünschte Meta-Robots-Einstellungen zu überprüfen. Ein kleiner Fehler (z.B. ein vergessenes Noindex vom Relaunch) kann enormen Schaden anrichten. Tools und die Search Console helfen dir beim Monitoring.
  • Im Zweifel: Experten fragen: Technisches SEO kann knifflig sein. Wenn du unsicher bist, ob deine Indexierungsstrategie korrekt ist – etwa bei komplexen Kombinationen aus Noindex, Canonical, Hreflang und Co. – hole dir Rat von erfahrenen SEOs. Oft sind solche Themen besser zweimal geprüft als einmal falsch implementiert.

Mit diesen Punkten im Hinterkopf bist du bestens gerüstet, den Meta Robots Tag effektiv und ohne böse Überraschungen einzusetzen. So behältst du die Kontrolle darüber, was Google von deiner Website zu sehen bekommt – ein essenzieller Erfolgsfaktor im SEO.

Handlungsaufforderung: Du bist unsicher, ob deine Website optimal indexiert wird oder vermutest Fehler im Einsatz von Meta Robots? Dann lass dich von unseren SEO-Experten unterstützen! Wir von panpan.digital helfen dir gerne mit einer unverbindlichen SEO-Beratung oder einem gründlichen SEO-Audit, um technische Stellschrauben wie den Meta Robots Tag richtig zu justieren. Nimm jetzt Kontakt mit uns auf und hol dir professionelle Unterstützung für deine SEO-Strategie – damit kein wichtiger Inhalt im Verborgenen bleibt!

[Lesetipp zum Abschluss]: Möchtest du mehr technische SEO-Tipps? Schau in unseren Ratgeber-Bereich vorbei! Zum Beispiel erklärt unser Artikel „404-Fehler und SEO: Dein umfassender Ratgeber“ wie du mit nicht gefundenen Seiten umgehst und welche Auswirkungen sie auf die Indexierung haben. Viel Spaß beim Weiterlesen und Optimieren!

FAQ zum Meta Robots Tag

Was bewirkt der Meta Robots Tag genau?

Der Meta Robots Tag ist ein wichtiger HTML-Code auf jeder HTML-Seite, der Suchmaschinen Bots (auch Web Crawler genannt) Anweisungen auf Seitenebene gibt. Durch die Verwendung spezieller Werte im sogenannten Content Attribut kannst du bestimmen, ob deine Webseite im Internet indexiert wird oder ob der Crawler Links folgen darf. Ohne den Meta Robots Tag gehen Suchmaschinen standardmäßig davon aus, dass Seiten indexiert („index“) und Links verfolgt („follow“) werden sollen.

Wo füge ich den Meta Robots Tag ein?

Du platzierst den Meta Robots Tag im HTML-<head>-Bereich deiner Seite, meist zusammen mit anderen Meta-Tags. Zum Beispiel: <meta name="robots" content="noindex, follow">. Viele Content-Management-Systeme (CMS) oder SEO-Plugins bieten dafür Einstellungen, sodass du nicht manuell im Code arbeiten musst. Wichtig ist, dass pro Seite nur einmal name="robots" vorkommt. Du kannst alternativ auch suchmaschinenspezifische Tags setzen (z.B. <meta name="googlebot" content="...">), aber in der Regel reicht der allgemeine „robots“-Tag für alle gängigen Suchmaschinen.

Was ist der Unterschied zwischen Meta Robots und robots.txt?

Der Meta Robots Tag steuert Indexierung und Linkverfolgung explizit auf der jeweiligen HTML-Seite. Die robots.txt hingegen regelt bereits vorab den Zugang zu einzelnen Unterseiten oder Verzeichnissen deiner Website für Suchmaschinen Bots. Beide Methoden arbeiten auf unterschiedliche Art zusammen, um Inhalte vor unerwünschter Indexierung zu schützen oder die Ressourcen des Crawlers effizienter zu nutzen.

Wie kann ich prüfen, ob eine Seite auf Noindex oder Nofollow steht?

Es gibt verschiedene Methoden: Eine direkte Kontrolle der HTML-Seite über den Seitenquelltext, SEO-Tools oder Browser-Plugins. Besonders einfach geht es mit der Google Search Console. Hier findest du alle relevanten Informationen, ob eine Seite korrekt von den Suchmaschinen Bots interpretiert wurde, beispielsweise ob ein noindex-Tag erkannt wurde und ob es Auswirkungen auf dein Ranking gibt.

Wie lange dauert es, bis eine Noindex-Seite aus Google verschwindet?

Die Entfernung einer Noindex-Seite aus den Suchergebnissen hängt von der Crawl-Frequenz der Web Crawler ab und erfolgt nicht sofort. In der Regel dauert dies zwischen einigen Tagen bis zu mehreren Wochen. Für eine sofortige Entfernung bietet Google in der Search Console ergänzende Methoden (z.B. das URL-Entfernungstool). Hier erfolgt die Eingabe der URL direkt, was die Entfernung beschleunigt.

Soll ich eine unerwünschte Seite mit Noindex oder via robots.txt aus den Suchergebnissen halten

Im Zweifel: Noindex. Denn Noindex stellt sicher, dass die Seite (sobald gecrawlt) aus dem Index fernbleibt. Eine reine Sperre in der robots.txt verhindert zwar das Crawling, aber nicht zwangsläufig die Indexierung – Google könnte die URL trotzdem indexieren, wenn externe Links darauf zeigen, allerdings ohne Inhalt (was dann unschön in den Ergebnissen aussieht). Die beste Vorgehensweise, wie oben beschrieben: erst Noindex, später optional Disallow, falls wirklich nötig. Für Seiten mit sensiblen Daten oder absolut ohne Relevanz, die du gar nie gecrawlt haben möchtest (z.B. Admin-Logins), kannst du direkt robots.txt Disallow setzen und zusätzlich besser durch Passwort/IP-Schutz sichern. Noindex ist hier nicht notwendig, da Google idealerweise gar nichts von der Seite wissen soll.

Gibt es weitere Meta-Robots-Anweisungen neben Index/Noindex und Follow/Nofollow?

Ja, der Meta Robots Tag kann noch weitere Parameter enthalten, um das Suchergebnis-Verhalten zu steuern. Einige Beispiele:

  • noarchive: Die Suchmaschine soll keine zwischengespeicherte Kopie (Cache-Version) der Seite anbieten.
  • nosnippet: Es soll kein Snippet (Textausschnitt) unter dem Suchergebnis gezeigt werden. (Die Seite kann trotzdem indexiert sein, erscheint dann aber ohne Beschreibungstext.)
  • noimageindex: Bilder auf der Seite sollen nicht in der Google Bildersuche indexiert werden.
  • notranslate: Google soll keine Übersetzungsfunktion für diese Seite anbieten.
  • max-snippet:-1, max-image-preview, max-video-preview: Mit solchen Direktiven kannst du die Länge des Snippets oder die Darstellung von Vorschaubildern steuern.

Diese zusätzlichen Anweisungen sind eher optional und betreffen die Darstellung in der Suche oder Spezialfälle. Für die grundlegende Indexierungssteuerung sind hauptsächlich index/noindex und follow/nofollow entscheidend. Erwähnenswert ist noch die X-Robots-Tag-HTTP-Header-Variante: Damit kann man ähnliche Anweisungen im HTTP-Header einer Antwort schicken (praktisch z.B. für PDF-Dateien oder andere Non-HTML-Dokumente, wo man kein Meta-Tag im Code unterbringen kann). Für normale Webseiten reicht jedoch der Meta Robots Tag im HTML.

Beeinträchtigt eine Noindex-Seite meine SEO-Leistung?

Eine Seite, die auf Noindex steht, kann selbst kein Ranking erzielen, weil sie ja nicht im Index ist. Das wirkt sich aber nicht negativ auf deine anderen, indexierten Seiten aus – es ist also nicht so, dass Google dich „bestraft“, nur weil du viele Noindex-Seiten hast. John Müller von Google hat bestätigt, dass Noindex-Seiten per se nicht schaden. Sie verbrauchen allerdings ein wenig Crawl-Budget, da Google sie trotzdem von Zeit zu Zeit überprüfen muss. Wenn sehr viele unwichtige Seiten gecrawlt werden, könnte das in Extremfällen heißen, dass wichtigere Seiten seltener besucht werden. Daher: Unnötige Seiten komplett entfernen oder Crawling reduzieren (z.B. durch Disallow), anstatt Unmengen an Noindex-Seiten liegen zu lassen. Aber keine Panik – ein gewisses Maß an Noindex (z.B. für typische unwichtige Seiten) ist völlig normal und Teil einer gesunden SEO-Hygiene.

Kann Google eine noindex-Seite trotzdem indexieren oder anzeigen?

Grundsätzlich: Nein, wenn Google den Noindex-Tag lesen kann, wird die Seite nicht in den Suchergebnissen angezeigt. Es gibt jedoch Sonderfälle: Wenn du z.B. eine Seite via robots.txt disallowst, sieht Google den Noindex nicht und könnte die URL trotzdem ins Indexverzeichnis aufnehmen (ohne Inhalt). Oder wenn externe Seiten auf deine Noindex-Seite verlinken und du diese Seite später komplett entfernst, kann Google noch eine Zeit lang einen Eintrag anzeigen (meist als leeres Ergebnis oder Fehler). Aber eine Seite, die aktiv mit <meta name="robots" content="noindex"> gekennzeichnet und für Google zugänglich ist, bleibt unsichtbar in der Suche. Achte nur darauf, dass der Tag korrekt geschrieben ist (Tippfehler wie noindes oder falsche Anführungszeichen können ihn unwirksam machen).

Sollte ich nofollow für ausgehende Links nutzen?

Für interne Links in der Regel nein – intern willst du ja, dass Google deine gesamte Seite durchforstet. Für ausgehende (externe) Links kommt es drauf an: Wenn du auf eine Seite verweist, der du vertraust und die für den Nutzer hilfreich ist, dann lass ihn follow (das ist ein „echter“ Empfehlung von dir). Hast du jedoch einen Link, der z.B. bezahlt ist (Werbung, Affiliate) oder zu einer Quelle führt, von der du dich distanzieren möchtest, dann setz rel="nofollow" auf diesen Link. So fließt kein PageRank und du hältst dich an Googles Richtlinien für bezahlte/vertrauensunwürdige Links. Beachte: Es gibt auch rel="ugc" (User Generated Content) und rel="sponsored" als spezielle Formen, die Google eingeführt hat – sie werden aber ähnlich wie Nofollow behandelt (Hinweis für Google). Das Meta Robots nofollow als Seiteneinstellung brauchst du eher selten, wie oben beschrieben. Konzentriere dich bei externen Links auf die einzelne Link-Ebene und entscheide je nach Fall.

Bonus-Tipp: Hast du mehr Fragen zur Indexierung oder anderen SEO-Themen? In unserem SEO-Ratgeber-Bereich findest du weitere hilfreiche Artikel. Und wenn dein spezielles Anliegen hier nicht beantwortet wurde, zögere nicht uns direkt zu kontaktieren – wir helfen dir gerne weiter, damit deine Website im Suchindex ganz vorne mitspielt!

Stell dir vor, du könntest Suchmaschinen genau sagen, welche Seiten deiner Website sie indexieren sollen und welche nicht. Genau das ermöglicht der Meta Robots Tag. Für jeden, der im SEO arbeitet – ob Einsteiger oder fortgeschrittener SEO-Manager – ist dieses kleine HTML-Tag ein mächtiges Werkzeug. Richtig eingesetzt hilft es, unnötige oder sensible Seiten aus den Suchergebnissen fernzuhalten und das Ranking-Potenzial deiner wichtigen Seiten zu schützen. Falsch angewendet kann es jedoch dazu führen, dass wertvolle Inhalte unsichtbar in Googles Tiefen verschwinden.

In diesem praxisnahen Ratgeber erklären wir dir verständlich, was der Meta Robots Tag ist, wie er funktioniert und wie du ihn gezielt für deine SEO-Strategie einsetzt. Wir beleuchten typische Anwendungsfälle, häufige Fehler und Irrtümer und geben Best Practices sowie Lösungen aus SEO-Sicht an die Hand. Egal ob du gerade erst mit SEO startest oder schon Erfahrung hast – hier findest du wertvolles Wissen und Tipps, um die Indexierung deiner Website optimal zu steuern. Los geht’s!

Was ist der Meta Tag for Robots und warum ist er wichtig?

Der Meta Robots Tag (auch „Robots Meta-Tag“ genannt) ist ein HTML-Befehl, der im <head>-Bereich einer Seite platziert wird. Er teilt Suchmaschinen-Crawlern (wie Googlebot, Bingbot & Co.) mit, wie sie mit dieser spezifischen Seite umgehen sollen. Im Gegensatz zur robots.txt-Datei, die auf Domain-Ebene regelt, welche Bereiche einer Website gecrawlt werden dürfen, wirkt der Meta Robots Tag seitenindividuell. Er legt fest, ob eine einzelne Seite indexiert werden darf und ob den darauf befindlichen Links gefolgt werden soll.

So sieht ein Meta Robots Tag im Quellcode aus: <meta name="robots" content="noindex, follow" />. Mit solchen Anweisungen bestimmst du zum Beispiel, dass eine Seite nicht in den Suchindex aufgenommen wird (noindex), aber der Crawler dennoch allen Links darauf folgen darf (follow). Diese Feinsteuerung ist für SEOs enorm wichtig, um Indexierungsbudget sinnvoll zu nutzen und unerwünschte Inhalte aus den Suchergebnissen fernzuhalten.

Warum ist das wichtig?

Jede Seite im Google-Index sollte idealerweise hochwertigen, für Nutzer relevanten Content bieten. Seiten, die dort nichts zu suchen haben – etwa interne Suchresultate, Duplikate oder veraltete Inhalte – können dem Gesamtbild deiner Website schaden oder wichtige Ressourcen des Crawlers binden. Mit dem Meta Robots Tag behältst du die Kontrolle: Du entscheidest, welche Seiten Google & Co. zeigen dürfen und wohin sie weiter surfen sollen. Gerade für SEO-Manager und interne Marketer ist dieses Know-how Gold wert, um die Sichtbarkeit der Website gezielt zu steuern.

Kurz gesagt: Der Meta Robots Tag ist dein direkter „Draht“ zum Suchmaschinen-Crawler. Nutze ihn mit Bedacht – er kann über Ranking und Unsichtbarkeit einer Seite entscheiden.

Index vs. Noindex: Welche Seiten sollen im Index landen?

Eine der Hauptfunktionen des Meta Robots Tags ist die Entscheidung Index oder Noindex. Diese Direktiven bestimmen, ob eine Seite in den Suchmaschinen-Index aufgenommen wird (Index) oder eben nicht (Noindex). Schauen wir uns beide Optionen im Detail an.

Index – Seiten für Suchmaschinen freigeben

Die Direktive index signalisiert: „Diese Seite darf in den Suchergebnissen erscheinen.“ Standardmäßig gehen Suchmaschinen immer davon aus, dass deine Seite indexiert werden darf, wenn kein Meta Robots Tag vorhanden ist. Das heißt, wenn du gar nichts angibst, ist das Verhalten so, als stünde index dort. In der Praxis muss man index also selten explizit hinschreiben – es ist die Standardeinstellung.

Beispiel: Dein neu erstellter Blogpost mit hochwertigem Content soll natürlich gefunden werden. Du gibst keinen Meta Robots Tag an, also wird Google ihn indexieren (vorausgesetzt, die Seite ist crawlbar und es gibt keinen anderen entgegenwirkenden Faktor). Die Indexierung bedeutet, dass diese URL in den Suchindex aufgenommen wird und für relevante Suchanfragen erscheinen kann.

Noindex – Seiten gezielt von der Indexierung ausschließen

Mit noindex teilst du den Crawlern mit: „Diese Seite bitte nicht im Index aufnehmen.“ Sobald Google diese Anweisung beim Crawlen entdeckt, wird die Seite bei der nächsten Aktualisierung aus den Suchergebnissen entfernt bzw. gar nicht erst aufgenommen. Wichtig: Die Suchmaschine muss die Seite crawlen können, um den Noindex-Tag zu sehen. Nur dann kann sie der Anweisung folgen.

  • Was passiert bei Noindex? Solange der Tag präsent ist, wird die Seite nicht in den Suchergebnissen erscheinen. War sie zuvor schon im Index, wird sie nach einiger Zeit entfernt. (Dieser Prozess ist nicht sofort, dazu später mehr.)
  • Wofür nutzt man Noindex? Für alle Seiten, die keinen Mehrwert in der Suche bieten oder aus anderen Gründen nicht öffentlich auffindbar sein sollen. Typische Beispiele schauen wir uns weiter unten an (Stichwort: interne Seiten, Duplicate Content, Thank-You-Seiten etc.).
  • Vorsicht: Noindex ist ein scharfes Schwert. Setzt du es bei der falschen Seite ein – etwa einer wichtigen Produkt- oder Kategorieseite – verlierst du Rankings und Traffic, da die Seite vollständig aus Google & Co. verschwindet. Gerade in großen Websites sollte Noindex sehr gezielt und sparsam eingesetzt werden.

Merke: Noindex entfernt eine Seite hart aus dem Index, während ein Canonical-Tag (eines anderen SEO-Steuerungsinstruments) eher eine Empfehlung zur Indexierung einer anderen Seite ist. Google behandelt Canonicals als Hinweis, Noindex dagegen als direkte Anweisung. Wenn Canonical-Strategien versagen oder nicht ausreichen, kann Noindex als nächster Schritt dienen – aber immer mit Bedacht.

Follow vs. Nofollow: Sollen Crawler den Links folgen?

Die zweite wichtige Funktion des Meta Robots Tags betrifft das Verfolgen von Links. Hier stehen sich follow und nofollow gegenüber. Damit steuerst du, ob die Links auf einer Seite von Suchmaschinen-Crawlern weiter verfolgt und in deren Bewertung einbezogen werden sollen oder nicht.

Follow – Linkweitergabe erlauben (Standard)

Die Anweisung follow bedeutet: „Folgt allen Links auf dieser Seite.“ Das ist ebenfalls Standardverhalten für Crawler. Enthält eine Seite also keine anderslautende Anweisung, werden Google und andere Bots allen entdeckten Links folgen, die Seite dahinter crawlen (sofern erlaubt) und ggf. in den Index aufnehmen. follow muss daher im Code nicht ausdrücklich stehen – es wird automatisch angenommen.

SEO-Auswirkung: follow ermöglicht es, dass Linkjuice (also Ranking-Kraft durch Verlinkungen) weitergegeben wird. Interne Verlinkungen können so ihre positive Wirkung entfalten, und auch externe Links würde der Crawler besuchen (bei externen entscheidet allerdings der Linkgeber über rel="nofollow" Attribut, dazu gleich mehr). Kurz: Follow hält den Crawler-Fluss aufrecht. Eine Seite mit index, follow ist ein normaler Bestandteil des Web, voll in den Index eingebunden und verteilt ihre Linkkraft weiter.

Nofollow – Links nicht bewerten und nicht weiterverfolgen

Mit nofollow gibst du die Anweisung: „Folgt den Links auf dieser Seite nicht.“ Das heißt, der Crawler schaut sich zwar den Inhalt der Seite an, ignoriert aber sämtliche Links darauf – als wären sie Sackgassen. Diese Option wird eingesetzt, um gezielt Linkweitergabe zu unterbinden.

Ein paar wichtige Punkte zu nofollow:

  • Anwendung: In der Praxis nutzt man nofollow als Meta Robots Einstellung sehr selten global für eine ganze Seite. Häufiger kommt rel="nofollow" auf Link-Ebene vor – z.B. um einzelne externe Links als unvertrauenswürdig zu markieren oder bezahlte Links zu entwerten. Global über den Meta Tag alle Links einer Seite auf einmal auf nofollow zu setzen, ist nur in Ausnahmefällen sinnvoll (etwa bei Archivseiten mit endlosen unwichtigen Links, oder einer Seite, die ausschließlich ein Linkverzeichnis darstellt, das komplett nicht gewertet werden soll).
  • Effekt auf SEO: Nofollow bedeutet, kein Linkjuice fließt weiter. Interne Verlinkungsstrukturen würden unterbrochen. Früher wurde dies manchmal benutzt, um PageRank-Sculpting zu betreiben (die Verteilung von Linkkraft bewusst zu steuern), aber heute ist das weniger relevant. Suchmaschinen sind auch smarter geworden: Google betrachtet Nofollow-Links mittlerweile als Hinweis und nicht mehr als strikte Anweisung für die Indexierung. In der Regel werden Nofollow-Links zwar nicht in die Rankingberechnung einbezogen, aber Google kann theoretisch dennoch entscheiden, einer Nofollow-Verknüpfung zu folgen, um neue Inhalte zu entdecken. Verlasse dich also nicht darauf, dass Nofollow immer einen Crawler 100% abhält – im Normalfall tut es das, aber garantieren kann man es nicht.
  • Intern vs. Extern: Interne Seiten sollten möglichst nicht per Nofollow entwertet werden, da du sonst wertvolle interne Verlinkung kappst und den Crawler im Kreis führst. Für externe Links kannst du Nofollow verwenden, wenn du keine Empfehlung aussprechen möchtest (z.B. bei User-generierten Inhalten, in Kommentaren, oder bei bezahlten Partnerschaften gemäß Googles Richtlinien).

Merke: Fehlt im Meta Robots Tag ein Hinweis zum Folgen, nehmen Crawler follow an. nofollow sollte gezielt und sparsam eingesetzt werden. Denk daran, dass noindex, nofollow zusammen eine Art Schwarzes Loch bildet: Die Seite verschwindet aus dem Index und der Crawler findet von dort aus keine weiteren Wege. Im Ergebnis vergeudest du Crawlressourcen. Daher setzen SEOs in der Regel eher noindex, follow – so bleibt die Seite zwar unsichtbar in der Suche, aber Links darauf werden weiterhin verfolgt (beispielsweise damit interne Verlinkungen zu noch indexierten Seiten nicht ins Leere laufen).

Wichtige Kombinationen des Meta Robots Tags verstehen

Die Meta Robots Anweisungen lassen sich kombinieren. Insgesamt gibt es vier mögliche Kombinationen, wobei zwei besonders relevant sind:

  • index, followStandardfall: Seite indexieren, Links folgen.
  • noindex, follow – Seite nicht indexieren, aber Links darauf verfolgen. (häufige Einstellung für auszuschließende Seiten)
  • index, nofollow – Seite indexieren, aber keinen Links darauf folgen. (selten genutzt)
  • noindex, nofollow – Seite nicht indexieren und Links nicht folgen. (Edge-Case, zu vermeiden wenn möglich)

Index, Follow (Default):

Wie erwähnt, ist dies das Verhalten ohne speziellen Tag. Diese Kombination brauchst du aktiv nur anzugeben, wenn du z.B. sicherstellen willst, dass ein zuvor anders konfigurierter Bereich wieder indexiert wird (etwa wenn du versehentlich mal Noindex gesetzt hattest und es korrigieren willst). Ansonsten kannst du es der Suchmaschine überlassen – sie indexiert und folgt standardmäßig.

Noindex, Follow (Empfohlen für auszuschließende Seiten):

Diese Einstellung nutzt man, wenn man eine Seite aus den Suchergebnissen fernhalten möchte, ohne den Fluss des Crawlers zu stören. Beispiele: Du hast eine interne „Danke“-Seite nach einer Formulareinsendung. Die Inhalte darauf sind für andere Nutzer nicht relevant, also soll sie nicht ranken (Noindex). Gleichzeitig enthält sie vielleicht einen Link zurück zur Startseite oder andere hilfreiche Links – diese dürfen gerne gecrawlt werden (Follow). Noindex, Follow ist Best Practice für die meisten Fälle, in denen man Seiten ausschließen will. So bleiben z.B. auch A/B-Test-Landingpages für Kampagnen oder interne Suchergebnisseiten aus dem Index draußen, leiten aber Linkkraft weiter.

Index, Nofollow (Spezialfall):

Diese Kombination sagt: „Die Seite darf im Index sein, aber vertraue keinen Links darauf.“ Wann könnte das sinnvoll sein? Eigentlich kaum im normalen SEO-Alltag. Wenn du einer Seite so wenig vertraust, dass keiner ihrer Links zählen soll, möchtest du sie meist auch gar nicht indexiert haben. Ein denkbarer Fall: Eine öffentliche Seite mit einem riesigen Linkverzeichnis, das du nicht werten lassen willst (z.B. ein usergeneriertes Linklisting). Hier könntest du theoretisch index, nofollow setzen – die Seite selbst kann gefunden werden (wenn sie z.B. einen informativen Text enthält), aber alle aufgeführten Links darin gelten als „nicht empfohlen“. Trotzdem: Solche Szenarien sind selten. Meist nutzt man Nofollow direkt an einzelnen Links, nicht seitenweit.

Noindex, Nofollow (zu vermeiden):

Diese Einstellung schließt die Seite aus dem Index aus und stoppt die Linkverfolgung. Effektiv isolierst du damit die Seite komplett. Der Crawler kommt hin, sieht Noindex und Nofollow, nimmt nichts mit und geht wieder. Das ergibt nur in wenigen Edge-Cases Sinn – z.B. vielleicht für eine temporäre Testseite, von der du 100% sicher bist, dass keine Links darauf wichtig sind. In den meisten Fällen wäre aber selbst dann eine Absicherung per Passwort oder Disallow in robots.txt besser, anstatt Crawler überhaupt drauf zu lassen. Fazit: noindex, nofollow macht den Crawler blind und taub für diese Seite und alles darauf – setze das nur ein, wenn du genau weißt, was du tust.

Typische Anwendungsfälle und Best Practices für Noindex

Der gezielte Einsatz von Noindex kann deine SEO-Performance verbessern, indem er irrelevante oder problematische Seiten aus dem Suchindex fernhält. Hier sind einige praxisnahe Beispiele, wann du Seiten auf Noindex setzen solltest – und wann nicht:

Geeignete Seiten für Noindex: (“Diese Seiten möchte ich nicht in Google sehen”)

  • Interne Suchergebnisse: Seiten, die Suchergebnisse auf deiner eigenen Website darstellen (z.B. ?s=keyword oder Filtersuchseiten). Sie bieten dem externen Nutzer keinen Mehrwert auf Google und führen oft zu Duplicate Content. -> Lösung: noindex, follow einsetzen, damit Google diese Seiten ignoriert, aber etwaige Produktlinks darin dennoch findet.
  • Danke-/Bestätigungsseiten: Nach einer Kontaktanfrage oder Bestellung landen User oft auf „Danke für Ihre Anfrage“ Seiten. Diese haben keinen eigenständigen Content für die Suche. -> Noindex hält sie aus dem Index raus.
  • Login- und Konto-Bereiche: Login-Seiten, Warenkorb, Benutzerprofil etc. sollten nicht öffentlich auffindbar sein. Sie sind zudem oft sensibel. -> Noindex (und zusätzlich eventuell per robots.txt absichern, siehe weiter unten).
  • Seiten mit wenig oder keinem Content: Platzhalterseiten, „Under Construction“-Seiten oder sehr dünne Inhalte. Bevor solche dünnen Seiten im Index auftauchen und die Qualität deiner Domain runterziehen, lieber auf Noindex setzen, bis sie fertig sind.
  • Duplikate oder Druckversionen: Hast du mehrere Versionen derselben Inhalte (z.B. Druckversion einer Seite ohne Mehrwert)? -> Eine Version (die Hauptseite) indexieren, die andere mit Noindex versehen oder besser per Canonical verknüpfen. (Wenn technisch möglich, ist Canonical hier oft vorzuziehen, damit Linksignale vereint bleiben.)
  • Kampagnen-Landingpages ohne SEO-Wert: Teams im Performance Marketing erstellen oft zahlreiche Landingpages für Ads, die nicht für Suchmaschinen optimiert sind und eventuell nur kurzfristig relevant sind. -> Diese Seiten kannst du mit Noindex, Follow kennzeichnen, damit sie nicht im organischen Index auftauchen und evtl. interne Verlinkungen trotzdem zählen.

Seiten, bei denen kein Noindex gesetzt werden sollte: (“Diese Seiten sollen indexiert bleiben”)

  • Wichtige Produkt- und Kategorieseiten: Im E-Commerce z.B. möchtest du in der Regel alle relevanten Produkte und Kategorieübersichten indexiert haben. Auch Produktvarianten (z.B. andere Farbe oder Größe) sollten meist nicht per Noindex ausgeschlossen werden, da sie für Nutzer nützlich sein können. Hier wäre eher eine Canonical-Lösung angebracht, falls sie aus SEO-Sicht zusammengefasst werden sollen.
  • Hochwertige Content-Seiten: Jeder Blog-Artikel, jede Ratgeber-Seite (so wie diese hier) und generell Seiten, die Besucher über Google finden sollen, dürfen natürlich nicht auf Noindex stehen. Klingt trivial, aber es passiert schnell, dass man beim Kopieren von Seitenvorlagen versehentlich einen Noindex mitkopiert – fatal für die Sichtbarkeit! (Tipp: Sieh dir in der Google Search Console an, ob wichtige Seiten als „Ausgeschlossen durch noindex“ gemeldet werden.)
  • Seiten, die per Canonical auf andere zeigen: Wenn Seite A einen Canonical-Link zu Seite B hat (also B als bevorzugte Index-Version angibt), sollte Seite A nicht auch noch Noindex haben. Entweder oder. Ein häufiger Fehler ist, z.B. Faceted-Search-Seiten mit Canonical und Noindex zu versehen. Das ist redundant und kann zu Verwirrung führen – entweder setze einen Canonical (wenn du die Seite zwar crawlen, aber nicht indexieren lassen willst zugunsten einer anderen) oder Noindex (wenn die Seite wirklich gar nicht auftauchen soll). Beide zusammen sind unnötig, im Worst Case ignoriert Google dann evtl. den Canonical oder verschwendet Crawlressourcen.

Zusammengefasst: Noindex eignet sich hervorragend, um bestimmte Seitentypen (intern, dupliziert, unrelevant) aus den Suchergebnissen rauszuhalten. Aber überlege immer, ob es bessere Alternativen gibt (Canonical, Zugangsschutz, etc.) und ob du mit dem Ausschluss nicht versehentlich nützliche Inhalte versteckst. Jede Seite, die du auf Noindex setzt, sollte bewusst gewählt sein.

Häufige Fehler und Irrtümer beim Meta Robots Tag (Ursachen, Auswirkungen & Lösungen)

Trotz seiner einfachen Syntax kommt es in der Praxis oft zu Fehlern beim Einsatz des Meta Robots Tags. Diese Fehler können von harmlos bis katastrophal reichen. Hier sind die häufigsten Stolperfallen – jeweils mit Ursache, möglicher Auswirkung auf die SEO und der entsprechenden Lösung aus Sicht eines SEOs:

1. Noindex + robots.txt-Disallow auf derselben Seite

  • Fehler/Ursache: Du sperrst eine Seite in der robots.txt (Disallow), setzt aber gleichzeitig auf der Seite selbst einen Noindex. Viele tun dies in der Annahme, doppelt hält besser.
  • Auswirkung: Ein Paradoxon – der Crawler darf die Seite aufgrund der robots.txt nicht aufrufen und sieht somit den Noindex-Tag gar nicht. Die Folge: Wenn die Seite zuvor indexiert war, bleibt sie unter Umständen weiter im Index (Google kennt die URL ja, darf sie nur nicht crawlen). Sie erscheint dann eventuell als „Seite im Index, jedoch durch robots.txt blockiert“ (ein typischer Bericht in der Search Console). So bleibt das unerwünschte Ergebnis sichtbar, oft ohne Inhalt oder mit altem Stand.
  • Lösung: Nicht kombinieren! Entscheide dich je nach Ziel entweder für noindex oder für Disallow. Faustregel:
    • Möchtest du eine Seite aus dem Index entfernen, dann erlaube Google den Zugriff und nutze Noindex. Sperre sie erst danach via robots.txt, wenn überhaupt nötig. (Tipp aus der Praxis: Erst alle betreffenden URLs auf Noindex setzen und warten, bis sie verschwinden. Später kannst du sie immer noch per robots.txt aussperren, um Crawl-Budget zu sparen, wenn sie sicher deindexiert sind.)
    • Möchtest du eine Seite gar nicht erst crawlen lassen (z.B. aus Sicherheitsgründen oder weil sie irrelevant ist, aber auch niemals in den Index soll), dann nutze Disallow in der robots.txt ohne Noindex. Beispielsweise für Admin-Bereiche, Tracking-Parameter-Seiten oder ähnliches, wo du gar keine Inhalte preisgeben willst.
      Merke: Noindex funktioniert nur, wenn Crawler die Seite sehen dürfen. Ein aktuelles Google-Statement (2024) betont genau das: Verwende nicht Disallow und Noindex gleichzeitig, da eine Disallow-Seite sonst trotz Noindex indiziert bleiben kann – allerdings ohne Inhalt. Besser: Lass Google die Seite crawlen, um den Noindex zu greifen, oder sperr sie komplett ohne Noindex.

2. Noindex vs. Canonical verwechselt oder doppelt gemoppelt

  • Fehler/Ursache: Man markiert Seiten mit Noindex, obwohl eigentlich ein Canonical angebracht wäre (oder umgekehrt). Ein Beispiel: Du hast sehr ähnliche Seiten (z.B. Filterseiten in einem Shop) und willst eigentlich, dass nur eine Hauptseite rankt. Statt Canonical zu setzen, nimmst du fälschlich alle Alternativen aus dem Index mit Noindex. Oder du setzt beides: Die Alternativseiten haben einen Canonical zur Hauptseite und zusätzlich Noindex.
  • Auswirkung: In Fällen, wo Canonical genügt, kann ein Noindex zu streng sein. Noindex kickt die Seite komplett raus – selbst wenn sie vielleicht noch Traffic bringen könnte, wenn der Canonical nicht greift. Außerdem gehen möglicherweise interne Links von dieser Seite verloren, wenn du Noindex+Nofollow einsetzt. Umgekehrt, eine Seite mit Canonical auf sich selbst und Noindex (ja, sowas passiert durch Kopierfehler) wäre unsinnig – sie würde sich selbst als Hauptseite angeben, aber dennoch nie indexiert.
  • Lösung: Klare Strategie entwickeln: Ist es Duplicate Content oder Varianten-Problem? -> Nutze Canonical-Tags, damit Google die Hauptversion versteht, aber crawle die Alternativen weiter (ohne Noindex), sodass z.B. Bewertungen oder andere Signale übertragen werden können. Nur wenn eine Seite wirklich gar nicht erscheinen soll, greife zu Noindex. Und dann meist ohne Canonical, außer der Spezialfall: Eine Noindex-Seite darf durchaus einen Canonical auf eine andere Seite haben (Google ignoriert ihn aber vermutlich, da die Seite eh nicht indexiert wird). Wichtig ist: mische nicht widersprüchliche Anweisungen. Entweder sag „nimm A statt B“ (Canonical) oder „nimm B gar nicht“ (Noindex).

3. Globaler Nofollow-Einsatz (Link-Sculpting von gestern)

  • Fehler/Ursache: In älteren SEO-Strategien wurde empfohlen, weniger wichtige Links sitewide auf Nofollow zu setzen, um „Linkkraft zu sparen“. Manche Webmaster haben sogar ganze Seitensektionen oder das gesamte Menü per Meta Robots nofollow entwertet.
  • Auswirkung: Crawler-Sackgassen. Interne Navigation mit Nofollow zu versehen, hindert Google daran, deine Website logisch zu durchdringen. Wichtige Seiten werden vielleicht nicht gefunden oder intern nicht mehr kontextuell verknüpft. Das schadet mehr, als dass es nützt. Außerdem verschenkt man Ranking-Potential, weil interne Links auch für Google ein Hinweis auf die Wichtigkeit von Seiten sind. Ein globaler Nofollow isoliert Seiten voneinander.
  • Lösung: Nofollow sparsam und gezielt verwenden. Für interne Links praktisch gar nicht, außer in absoluten Ausnahmefällen. Wenn du „Linkjuice“ lenken willst, mach es über clevere interne Verlinkungsstruktur (z.B. welche Seiten du häufig aus dem Menü verlinkst), aber nicht über Nofollow-Tags. Google selber rät davon ab. Heutzutage bewertet Google Nofollow zwar als Hinweis, könnte also dennoch crawlen – aber die Links fließen definitiv nicht ins Ranking ein. Kurzum: Konzentriere dich lieber darauf, gute interne Verlinkung zu nutzen, anstatt Linkjuice künstlich aufstauen zu wollen.

4. Hreflang-Verweise auf Noindex-Seiten

  • Fehler/Ursache: Auf internationalisierten Websites kommt es vor, dass hreflang-Links (die Sprach-/Länder-Versionen verknüpfen) auf Seiten zeigen, die Noindex haben. Oder umgekehrt: Eine Noindex-Seite enthält hreflang-Angaben zu anderen Seiten. Oft passiert das, wenn man z.B. eine bestimmte Sprachversion vom Index ausschließen will, aber vergisst, sie aus den hreflang-Sets rauszunehmen.
  • Auswirkung: Hreflang-Tags sollen Google helfen, gleichwertige Seiten in verschiedenen Sprachen zu erkennen und passend auszuspielen. Wenn jedoch eine dieser verknüpften Seiten Noindex ist, stiftet das Verwirrung. Google könnte die hreflang-Gruppe nicht richtig auflösen, da ein Mitglied gar nicht indexiert werden soll. Im schlimmsten Fall ignoriert Google die hreflang-Angaben komplett, weil etwas nicht konsistent ist. Außerdem macht es wenig Sinn: Warum einer Suchmaschine alternative Sprachseiten anbieten, die sie gar nicht indexieren darf?
  • Lösung: Konsistenz sicherstellen: In hreflang-Clustern dürfen nur indexierbare Seiten enthalten sein. Falls du z.B. bestimmte Regionen nicht bedienen willst, ist es besser, diese hreflang-Einträge ganz wegzulassen, anstatt die Seiten auf Noindex zu setzen und dennoch zu referenzieren. Überprüfe regelmäßig (gerade nach Website-Updates), ob irgend eine Seite mit noindex zufällig noch hreflang-Verweise hat oder von anderen hreflang-Tags referenziert wird. Bereinige solche Fälle, um klare Signale an Google zu senden.

5. Noindex in der Entwicklungsumgebung nicht entfernt

  • Fehler/Ursache: Während eines Website-Relaunches oder auf einer Staging-Umgebung wird häufig ein globaler Noindex gesetzt, damit unfertige Inhalte nicht in Google auftauchen. Das ist zunächst richtig. Der Fehler passiert, wenn beim Livegang vergessen wird, den Noindex-Tag zu entfernen. Plötzlich ist die frisch relaunchte Seite für Google unsichtbar – ein Albtraum!
  • Auswirkung: Solange der Noindex auf der Live-Seite aktiv ist, verliert die Seite täglich Rankings. Stammnutzer gelangen vielleicht noch direkt drauf, aber Neukunden finden nichts mehr in der Suche. Traffic und Umsatz können dramatisch einbrechen. Jeder Tag zählt hier. Dieser Fehler ist leider einer der teuersten SEO-Schnitzer, die passieren können.
  • Lösung: Checks und Absicherung: Schon beim Aufsetzen der Entwicklungsumgebung sollte diese passwortgeschützt oder per IP-Sperre geschützt werden, sodass Crawler gar nicht hinkommen. Der Noindex dient dann nur als zusätzliches Netz, falls doch etwas öffentlich würde. Beim Launch gehört „Noindex entfernen“ auf die Launch-Checkliste ganz nach oben! Führ am besten vor und nach dem Livegang einen Crawl (z.B. mit Screaming Frog) durch und filtere nach Seiten mit Noindex, um sicherzugehen, dass keine produktive Seite versehentlich ausgeschlossen bleibt. Und wenn es passiert ist: Schnellstmöglich den Tag entfernen und einen erneuten Crawl durch Google veranlassen (z.B. über die Search Console „Live-URL testen“ und „Indexierung beantragen“).

6. Erwartung: „Noindex wirkt sofort“

  • Irrtum/Ursache: Viele denken, sobald sie einer Seite noindex verpassen, ist sie sofort aus den Suchergebnissen verschwunden. Diese Annahme ist verständlich, aber so funktioniert es nicht.
  • Auswirkung: Du setzt Noindex, überprüfst eine Stunde später Google – und die Seite ist noch da. Verunsicherung macht sich breit: Hat es nicht geklappt? Ignoriert Google mich? Im schlimmsten Fall wird hektisch rumprobiert – vielleicht zusätzlich noch über die Search Console entfernt, robots.txt geändert etc., was zu einem Chaos an Signalen führt.
  • Lösung: Geduld und ggfs. Beschleunigung: Noindex greift, sobald Google die Seite neu gecrawlt und verarbeitet hat. Je nach Crawlrate kann das von ein paar Stunden bis mehrere Wochen dauern. In der Google Search Console unter „Indexierung > Seiten“ kannst du sehen, welche Seiten als „ausgeschlossen durch Noindex“ markiert sind – das zeigt, dass Google den Tag erkannt hat. Wenn es schnell gehen muss, nutze das Entfernungstool der Search Console, um die URL temporär aus den Suchergebnissen zu entfernen. Das ist ein Notfallhebel, der sofort zieht, aber parallel sollte die Seite natürlich weiterhin Noindex tragen, damit sie auch dauerhaft fernbleibt. Grundsätzlich gilt: Keine Panik, Noindex braucht etwas Zeit. Für große Websites mit vielen URLs gilt das besonders – hier kann die vollständige De-Indexierung Monate dauern, bis Google alle erwischt. Das ist normal.

7. Noindex-Seiten in der XML-Sitemap

  • Fehler/Ursache: Deine XML-Sitemap listet alle Seiten auf, auch jene, die eigentlich Noindex sind. Das passiert, wenn das CMS/Sitemap-Plugin nicht zwischen indexierbaren und nicht-indexierbaren Seiten unterscheidet.
  • Auswirkung: Google findet in der Sitemap eine URL und denkt, sie soll indexiert werden, sieht dann aber auf der Seite den Noindex. Das ist kein Weltuntergang – Google markiert das in der Search Console oft als Hinweis „URL in Sitemap, aber durch Noindex ausgeschlossen“. Es widerspricht sich ein wenig und könnte Crawler-Ressourcen verschwenden, da Google immer wieder prüft „ist die vielleicht jetzt indexierbar?“.
  • Lösung: Sitemap bereinigen: Am besten listest du in deiner Sitemap nur Seiten, die indexiert werden sollen. Noindex-Seiten kannst du weglassen. Damit schickst du klare Signale: was in der Sitemap steht, soll rein, der Rest ist entweder nicht so wichtig oder bewusst ausgeschlossen. Die meisten modernen SEO-Plugins oder CMS haben Optionen, um z.B. Dankeseiten oder Kategorieseiten mit Noindex von der Sitemap auszunehmen.

Dies sind nur einige häufige Fehler. Wichtig ist: Jedes Mal, wenn du den Meta Robots Tag einsetzt, frage dich warum und prüfe die Auswirkungen. Ein kleiner Tippfehler oder Denkfehler („Ups, die falsche Seite auf Noindex gesetzt!“) kann erhebliche Folgen haben. Im Zweifelsfall ziehe einen erfahrenen SEO hinzu oder teste Änderungen erst in kleinerem Umfang.

Interner Tipp: Nutze Tools wie Screaming Frog, SISTRIX Optimizer oder Ahrefs Crawler, um deine Website regelmäßig zu checken. Sie zeigen dir schnell, wo Meta-Robots-Anweisungen stehen und ob es z.B. Seiten mit Noindex gibt, die trotzdem in der Sitemap sind oder wichtige Seiten, die versehentlich auf Noindex/Nofollow gesetzt wurden. Auch die Google Search Console ist dein Freund: Im Indexierungsbericht erkennst du sofort, wenn URLs „Ausgeschlossen durch das noindex-Tag“ sind oder andere Indexierungsprobleme auftreten. So kannst du Fehler frühzeitig aufdecken und beheben.

Fazit: Key Takeaways zum Meta Robots Tag

Der Meta Robots Tag ist ein mächtiges Steuerungsinstrument im SEO, mit dem du für jede einzelne Seite festlegst, ob sie indexiert wird und wie Crawler mit ihr umgehen. Richtig eingesetzt, hilfst du Suchmaschinen, sich auf die wichtigen Seiten zu konzentrieren und vermeidest, dass irrelevante oder heikle Inhalte in den Suchergebnissen auftauchen. Zum Abschluss die wichtigsten Erkenntnisse und Tipps auf einen Blick:

  • Meta Robots = Seitenweises Crawling- & Indexing-Kontrollzentrum: Über <meta name="robots" content="..."> steuerst du Indexierung (index/noindex) und Linkverfolgung (follow/nofollow) pro Seite. Was nicht in den Tag geschrieben wird, bleibt auf Standardeinstellung (index, follow).
  • Noindex bewusst und gezielt nutzen: Setze noindex nur dort ein, wo du Seiten wirklich aus den Suchergebnissen herausnehmen willst (z.B. interne Suche, Danke-Seiten, Duplikate). Bedenke, dass diese Seiten dann keinen Traffic über Suche mehr liefern können. Wichtige Seiten niemals auf Noindex!
  • Nicht mit robots.txt widersprechen: Vermeide die Kombination von Disallow (robots.txt) und noindex. Entscheide je nach Zielsetzung: Crawlen erlauben, um Noindex wirken zu lassen, oder Crawling per Disallow verbieten, wenn Indexierung erst gar kein Thema sein soll (z.B. interne Login-Seiten). Doppelte Sperren verwirren nur.
  • Follow/Nofollow klug handhaben: Erlaube Crawlern in der Regel, Links zu folgen (follow), damit deine Website vollständig erfasst wird und Linkjuice fließen kann. Globales nofollow schneidet Verbindungen ab – setze es nur in Ausnahmefällen. Für externe Links kannst du gezielt rel="nofollow" nutzen, intern in der Regel nicht.
  • Regelmäßig prüfen: Mache es dir zur Gewohnheit, deine Seiten auf unerwünschte Meta-Robots-Einstellungen zu überprüfen. Ein kleiner Fehler (z.B. ein vergessenes Noindex vom Relaunch) kann enormen Schaden anrichten. Tools und die Search Console helfen dir beim Monitoring.
  • Im Zweifel: Experten fragen: Technisches SEO kann knifflig sein. Wenn du unsicher bist, ob deine Indexierungsstrategie korrekt ist – etwa bei komplexen Kombinationen aus Noindex, Canonical, Hreflang und Co. – hole dir Rat von erfahrenen SEOs. Oft sind solche Themen besser zweimal geprüft als einmal falsch implementiert.

Mit diesen Punkten im Hinterkopf bist du bestens gerüstet, den Meta Robots Tag effektiv und ohne böse Überraschungen einzusetzen. So behältst du die Kontrolle darüber, was Google von deiner Website zu sehen bekommt – ein essenzieller Erfolgsfaktor im SEO.

Handlungsaufforderung: Du bist unsicher, ob deine Website optimal indexiert wird oder vermutest Fehler im Einsatz von Meta Robots? Dann lass dich von unseren SEO-Experten unterstützen! Wir von panpan.digital helfen dir gerne mit einer unverbindlichen SEO-Beratung oder einem gründlichen SEO-Audit, um technische Stellschrauben wie den Meta Robots Tag richtig zu justieren. Nimm jetzt Kontakt mit uns auf und hol dir professionelle Unterstützung für deine SEO-Strategie – damit kein wichtiger Inhalt im Verborgenen bleibt!

[Lesetipp zum Abschluss]: Möchtest du mehr technische SEO-Tipps? Schau in unseren Ratgeber-Bereich vorbei! Zum Beispiel erklärt unser Artikel „404-Fehler und SEO: Dein umfassender Ratgeber“ wie du mit nicht gefundenen Seiten umgehst und welche Auswirkungen sie auf die Indexierung haben. Viel Spaß beim Weiterlesen und Optimieren!

FAQ zum Meta Robots Tag

Was bewirkt der Meta Robots Tag genau?

Der Meta Robots Tag ist ein wichtiger HTML-Code auf jeder HTML-Seite, der Suchmaschinen Bots (auch Web Crawler genannt) Anweisungen auf Seitenebene gibt. Durch die Verwendung spezieller Werte im sogenannten Content Attribut kannst du bestimmen, ob deine Webseite im Internet indexiert wird oder ob der Crawler Links folgen darf. Ohne den Meta Robots Tag gehen Suchmaschinen standardmäßig davon aus, dass Seiten indexiert („index“) und Links verfolgt („follow“) werden sollen.

Wo füge ich den Meta Robots Tag ein?

Du platzierst den Meta Robots Tag im HTML-<head>-Bereich deiner Seite, meist zusammen mit anderen Meta-Tags. Zum Beispiel: <meta name="robots" content="noindex, follow">. Viele Content-Management-Systeme (CMS) oder SEO-Plugins bieten dafür Einstellungen, sodass du nicht manuell im Code arbeiten musst. Wichtig ist, dass pro Seite nur einmal name="robots" vorkommt. Du kannst alternativ auch suchmaschinenspezifische Tags setzen (z.B. <meta name="googlebot" content="...">), aber in der Regel reicht der allgemeine „robots“-Tag für alle gängigen Suchmaschinen.

Was ist der Unterschied zwischen Meta Robots und robots.txt?

Der Meta Robots Tag steuert Indexierung und Linkverfolgung explizit auf der jeweiligen HTML-Seite. Die robots.txt hingegen regelt bereits vorab den Zugang zu einzelnen Unterseiten oder Verzeichnissen deiner Website für Suchmaschinen Bots. Beide Methoden arbeiten auf unterschiedliche Art zusammen, um Inhalte vor unerwünschter Indexierung zu schützen oder die Ressourcen des Crawlers effizienter zu nutzen.

Wie kann ich prüfen, ob eine Seite auf Noindex oder Nofollow steht?

Es gibt verschiedene Methoden: Eine direkte Kontrolle der HTML-Seite über den Seitenquelltext, SEO-Tools oder Browser-Plugins. Besonders einfach geht es mit der Google Search Console. Hier findest du alle relevanten Informationen, ob eine Seite korrekt von den Suchmaschinen Bots interpretiert wurde, beispielsweise ob ein noindex-Tag erkannt wurde und ob es Auswirkungen auf dein Ranking gibt.

Wie lange dauert es, bis eine Noindex-Seite aus Google verschwindet?

Die Entfernung einer Noindex-Seite aus den Suchergebnissen hängt von der Crawl-Frequenz der Web Crawler ab und erfolgt nicht sofort. In der Regel dauert dies zwischen einigen Tagen bis zu mehreren Wochen. Für eine sofortige Entfernung bietet Google in der Search Console ergänzende Methoden (z.B. das URL-Entfernungstool). Hier erfolgt die Eingabe der URL direkt, was die Entfernung beschleunigt.

Soll ich eine unerwünschte Seite mit Noindex oder via robots.txt aus den Suchergebnissen halten

Im Zweifel: Noindex. Denn Noindex stellt sicher, dass die Seite (sobald gecrawlt) aus dem Index fernbleibt. Eine reine Sperre in der robots.txt verhindert zwar das Crawling, aber nicht zwangsläufig die Indexierung – Google könnte die URL trotzdem indexieren, wenn externe Links darauf zeigen, allerdings ohne Inhalt (was dann unschön in den Ergebnissen aussieht). Die beste Vorgehensweise, wie oben beschrieben: erst Noindex, später optional Disallow, falls wirklich nötig. Für Seiten mit sensiblen Daten oder absolut ohne Relevanz, die du gar nie gecrawlt haben möchtest (z.B. Admin-Logins), kannst du direkt robots.txt Disallow setzen und zusätzlich besser durch Passwort/IP-Schutz sichern. Noindex ist hier nicht notwendig, da Google idealerweise gar nichts von der Seite wissen soll.

Gibt es weitere Meta-Robots-Anweisungen neben Index/Noindex und Follow/Nofollow?

Ja, der Meta Robots Tag kann noch weitere Parameter enthalten, um das Suchergebnis-Verhalten zu steuern. Einige Beispiele:

  • noarchive: Die Suchmaschine soll keine zwischengespeicherte Kopie (Cache-Version) der Seite anbieten.
  • nosnippet: Es soll kein Snippet (Textausschnitt) unter dem Suchergebnis gezeigt werden. (Die Seite kann trotzdem indexiert sein, erscheint dann aber ohne Beschreibungstext.)
  • noimageindex: Bilder auf der Seite sollen nicht in der Google Bildersuche indexiert werden.
  • notranslate: Google soll keine Übersetzungsfunktion für diese Seite anbieten.
  • max-snippet:-1, max-image-preview, max-video-preview: Mit solchen Direktiven kannst du die Länge des Snippets oder die Darstellung von Vorschaubildern steuern.

Diese zusätzlichen Anweisungen sind eher optional und betreffen die Darstellung in der Suche oder Spezialfälle. Für die grundlegende Indexierungssteuerung sind hauptsächlich index/noindex und follow/nofollow entscheidend. Erwähnenswert ist noch die X-Robots-Tag-HTTP-Header-Variante: Damit kann man ähnliche Anweisungen im HTTP-Header einer Antwort schicken (praktisch z.B. für PDF-Dateien oder andere Non-HTML-Dokumente, wo man kein Meta-Tag im Code unterbringen kann). Für normale Webseiten reicht jedoch der Meta Robots Tag im HTML.

Beeinträchtigt eine Noindex-Seite meine SEO-Leistung?

Eine Seite, die auf Noindex steht, kann selbst kein Ranking erzielen, weil sie ja nicht im Index ist. Das wirkt sich aber nicht negativ auf deine anderen, indexierten Seiten aus – es ist also nicht so, dass Google dich „bestraft“, nur weil du viele Noindex-Seiten hast. John Müller von Google hat bestätigt, dass Noindex-Seiten per se nicht schaden. Sie verbrauchen allerdings ein wenig Crawl-Budget, da Google sie trotzdem von Zeit zu Zeit überprüfen muss. Wenn sehr viele unwichtige Seiten gecrawlt werden, könnte das in Extremfällen heißen, dass wichtigere Seiten seltener besucht werden. Daher: Unnötige Seiten komplett entfernen oder Crawling reduzieren (z.B. durch Disallow), anstatt Unmengen an Noindex-Seiten liegen zu lassen. Aber keine Panik – ein gewisses Maß an Noindex (z.B. für typische unwichtige Seiten) ist völlig normal und Teil einer gesunden SEO-Hygiene.

Kann Google eine noindex-Seite trotzdem indexieren oder anzeigen?

Grundsätzlich: Nein, wenn Google den Noindex-Tag lesen kann, wird die Seite nicht in den Suchergebnissen angezeigt. Es gibt jedoch Sonderfälle: Wenn du z.B. eine Seite via robots.txt disallowst, sieht Google den Noindex nicht und könnte die URL trotzdem ins Indexverzeichnis aufnehmen (ohne Inhalt). Oder wenn externe Seiten auf deine Noindex-Seite verlinken und du diese Seite später komplett entfernst, kann Google noch eine Zeit lang einen Eintrag anzeigen (meist als leeres Ergebnis oder Fehler). Aber eine Seite, die aktiv mit <meta name="robots" content="noindex"> gekennzeichnet und für Google zugänglich ist, bleibt unsichtbar in der Suche. Achte nur darauf, dass der Tag korrekt geschrieben ist (Tippfehler wie noindes oder falsche Anführungszeichen können ihn unwirksam machen).

Sollte ich nofollow für ausgehende Links nutzen?

Für interne Links in der Regel nein – intern willst du ja, dass Google deine gesamte Seite durchforstet. Für ausgehende (externe) Links kommt es drauf an: Wenn du auf eine Seite verweist, der du vertraust und die für den Nutzer hilfreich ist, dann lass ihn follow (das ist ein „echter“ Empfehlung von dir). Hast du jedoch einen Link, der z.B. bezahlt ist (Werbung, Affiliate) oder zu einer Quelle führt, von der du dich distanzieren möchtest, dann setz rel="nofollow" auf diesen Link. So fließt kein PageRank und du hältst dich an Googles Richtlinien für bezahlte/vertrauensunwürdige Links. Beachte: Es gibt auch rel="ugc" (User Generated Content) und rel="sponsored" als spezielle Formen, die Google eingeführt hat – sie werden aber ähnlich wie Nofollow behandelt (Hinweis für Google). Das Meta Robots nofollow als Seiteneinstellung brauchst du eher selten, wie oben beschrieben. Konzentriere dich bei externen Links auf die einzelne Link-Ebene und entscheide je nach Fall.

Bonus-Tipp: Hast du mehr Fragen zur Indexierung oder anderen SEO-Themen? In unserem SEO-Ratgeber-Bereich findest du weitere hilfreiche Artikel. Und wenn dein spezielles Anliegen hier nicht beantwortet wurde, zögere nicht uns direkt zu kontaktieren – wir helfen dir gerne weiter, damit deine Website im Suchindex ganz vorne mitspielt!

Latest posts

Ratgeber

Interviews, Tips, Guides, News und Best Practices rund um die Themen Suchmaschinenoptimierung, SEA und Digitalstrategie.
SEO
10 Minuten

XML-Sitemaps und SEO: Dein umfassender Ratgeber

Eine XML-Sitemap hilft Google, alle wichtigen Seiten deiner Website zu finden – selbst die versteckten. Warum das für SEO so entscheidend ist und wie du typische Fehler vermeidest, erfährst du hier.
Zum Beitrag
SEO
11 Minuten

Canonical-Tag: Der umfassende SEO-Ratgeber zur Vermeidung von Duplicate Content

Verwirrung um Canonical-Tags? Wir bringen Licht ins SEO-Dickicht: Von Basics über Fehler bis zu Strategie & Tools – kompakt, verständlich & auf den Punkt.
Zum Beitrag
SEO
12 Minuten

404-Fehler und SEO: Dein umfassender Ratgeber

"404 – Seite nicht gefunden." Nervig? Ja. Schlecht für SEO? Auch! Erfahre, warum 404-Fehler entstehen, wie sie deine Website beeinflussen und was du tun kannst – mit praktischen Tipps zu Weiterleitungen, Monitoring & Best Practices.
Zum Beitrag

Melde dich bei uns

Wir melden uns innerhalb von 24 Stunden mit einer Antwort bei dir – versprochen.

Mit der Eingabe deiner Daten erklärst du dich sich mit den Datenschutzbestimmungen von pan pan einverstanden.

Super, deine Nachricht ist bei uns eingegangen!

Wir freuen uns darauf, gemeinsam mit dir an deinem Erfolg zu arbeiten!
Oops, da ist etwas schiefgelaufen!

Versuche es bitte noch einmal oder kontaktiere uns direkt per E-Mail.