Der SEO-Expertenleitfaden zur Handhabung von URL-Parametern
In der Welt der SEO stellen URL-Parameter ein erhebliches Problem dar.
Entwickler und Datenanalysten schätzen zwar ihren Nutzen, diese Abfragezeichenfolgen können jedoch für die Suchmaschinenoptimierung (SEO) problematisch sein.
Unzählige Parameterkombinationen können eine einzelne Benutzerabsicht auf Tausende von URL-Varianten verteilen. Dies kann zu Komplikationen beim Crawling, der Indizierung und der Sichtbarkeit führen und letztendlich zu weniger Datenverkehr.
Das Problem besteht darin, dass wir sie nicht einfach wegwünschen können. Daher ist es von entscheidender Bedeutung, die Verwaltung von URL-Parametern auf SEO-freundliche Weise zu beherrschen.
Zu diesem Zweck werden wir Folgendes untersuchen:
- Die Grundlagen von URL-Parametern.
- Durch Parameter verursachte SEO-Probleme.
- Bewerten Sie das Ausmaß Ihres Parameterproblems.
- SEO-Lösungen zur Parameterzähmung.
- Best Practice für die Handhabung von URL-Parametern.
Was sind URL-Parameter?
URL-Parameter, auch als Abfragezeichenfolgen oder URI-Variablen bezeichnet, sind der Teil einer URL, der auf das Symbol „?“ folgt. Sie bestehen aus einem Schlüssel- und einem Wertepaar, die durch ein „=“-Zeichen getrennt sind. Mehrere Parameter können einer einzelnen Seite hinzugefügt werden, wenn sie durch ein „&“ getrennt sind.
Die häufigsten Anwendungsfälle für Parameter sind:
- Sendungsverfolgung – Zum Beispiel ?utm_medium=social, ?sessionid=123 oder ?affiliateid=abc
- Neuordnung – Zum Beispiel ?sort=lowest-price, ?order=highest-rated oder ?so=latest
- Filtern – Zum Beispiel ?type=widget, colour=purple oder ?price-range=20-50
- Identifizieren – Zum Beispiel ?product=small-purple-widget, categoryid=124 oder itemid=24AU
- Seitennummerierung – Zum Beispiel ?page=2, ?p=2 oder viewItems=10-30
- Suche – Zum Beispiel ?query=users-query, ?q=users-query oder ?search=drop-down-option
- Übersetzen – Zum Beispiel ?lang=fr oder ?language=de
SEO-Probleme mit URL-Parametern
1. Parameter erzeugen doppelten Inhalt
Oft bewirken URL-Parameter keine nennenswerte Änderung am Inhalt einer Seite.
Eine neu geordnete Version der Seite ist oft nicht so anders vom Original. Eine Seiten-URL mit Tracking-Tags oder einer Session-ID ist identisch zum Original.
Beispielsweise würden die folgenden URLs alle eine Sammlung von Widgets zurückgeben.
- Statische URL: https://www.example.com/widgets
- Tracking-Parameterr: https://www.example.com/widgets?Sitzungs-ID=32764
- Neuordnungsparameter: https://www.example.com/widgets?sort=neueste
- Identifizierender Parameter: https://www.example.com?Kategorie=Widgets
- Suchparameter: https://www.example.com/products?Suche=Widget
Das sind ziemlich viele URLs für praktisch denselben Inhalt. Stellen Sie sich das jetzt für alle Kategorien Ihrer Site vor. Das kann sich wirklich summieren.
Die Herausforderung besteht darin, dass Suchmaschinen jede parameterbasierte URL als neue Seite behandeln. Sie sehen also mehrere Varianten derselben Seite, die alle doppelten Inhalt bieten und alle auf dieselbe Suchabsicht oder dasselbe semantische Thema abzielen.
Obwohl eine solche Duplizierung wahrscheinlich nicht dazu führt, dass eine Website vollständig aus den Suchergebnissen herausgefiltert wird, führt sie doch zu einer Kannibalisierung der Schlüsselwörter und kann die Bewertung Ihrer Website durch Google insgesamt verschlechtern, da diese zusätzlichen URLs keinen echten Mehrwert bieten.
2. Parameter reduzieren die Crawl-Effizienz
Das Crawlen redundanter Parameterseiten lenkt den Googlebot ab, verringert die Fähigkeit Ihrer Site, SEO-relevante Seiten zu indizieren und erhöht die Serverlast.
Google fasst diesen Punkt perfekt zusammen.
„Übermäßig komplexe URLs, insbesondere solche mit mehreren Parametern, können für Crawler Probleme verursachen, indem sie eine unnötig hohe Anzahl von URLs erstellen, die auf identische oder ähnliche Inhalte auf Ihrer Site verweisen.
Dies kann dazu führen, dass der Googlebot viel mehr Bandbreite verbraucht als nötig oder nicht in der Lage ist, den gesamten Inhalt Ihrer Site zu indizieren.“
3. Parameter Split Page Ranking Signale
Wenn Sie mehrere Permutationen desselben Seiteninhalts haben, können Links und Social Shares in verschiedenen Versionen erfolgen.
Dadurch werden Ihre Rankingsignale verwässert. Wenn Sie einen Crawler verwirren, ist er sich nicht sicher, welche der konkurrierenden Seiten er für die Suchanfrage indexieren soll.
4. Parameter machen URLs weniger anklickbar
Seien wir ehrlich: Parameter-URLs sind unansehnlich. Sie sind schwer zu lesen. Sie wirken nicht so vertrauenswürdig. Daher ist die Wahrscheinlichkeit, dass sie angeklickt werden, etwas geringer.
Dies kann die Seitenleistung beeinträchtigen. Nicht nur, weil die Klickrate das Ranking beeinflusst, sondern auch, weil die Seite in KI-Chatbots, sozialen Medien, in E-Mails, beim Kopieren und Einfügen in Foren oder an anderen Orten, an denen die vollständige URL angezeigt werden kann, weniger angeklickt werden kann.
Während dies möglicherweise nur einen geringen Einfluss auf die Verbreitung einer einzelnen Seite hat, ist für die Domäne jeder Tweet, jedes „Gefällt mir“, jede Freigabe, jede E-Mail, jeder Link und jede Erwähnung von Bedeutung.
Eine schlechte Lesbarkeit der URL kann zu einem Rückgang des Markenengagements beitragen.
Bewerten Sie das Ausmaß Ihres Parameterproblems
Es ist wichtig, alle auf Ihrer Website verwendeten Parameter zu kennen. Aber Ihre Entwickler führen wahrscheinlich keine aktuelle Liste.
Wie finden Sie also alle Parameter, die bearbeitet werden müssen? Oder wie verstehen Sie, wie Suchmaschinen solche Seiten crawlen und indexieren? Wie wissen Sie, welchen Wert sie den Benutzern bringen?
Befolgen Sie diese fünf Schritte:
- Ausführen eines Crawlers: Mit einem Tool wie Screaming Frog können Sie in der URL nach „?“ suchen.
- Überprüfen Sie Ihre Protokolldateien: Prüfen Sie, ob Googlebot parameterbasierte URLs crawlt.
- Schauen Sie im Seitenindexierungsbericht der Google Search Console nach: Suchen Sie in den Beispielen für indexierte und relevante nicht indexierte Ausschlüsse nach „?“ in der URL.
- Suche mit Site: InURL: Erweiterte Operatoren: Erfahren Sie, wie Google die von Ihnen gefundenen Parameter indiziert, indem Sie den Schlüssel in eine site:example.com inurl:key-Kombinationsabfrage einfügen.
- Schauen Sie sich den Bericht zu allen Seiten in Google Analytics an.: Suchen Sie nach „?“, um zu sehen, wie die einzelnen gefundenen Parameter von Benutzern verwendet werden. Stellen Sie sicher, dass URL-Abfrageparameter in der Ansichtseinstellung nicht ausgeschlossen wurden.
Anhand dieser Daten können Sie nun entscheiden, wie Sie die einzelnen Parameter Ihrer Website am besten handhaben.
SEO-Lösungen zur Zähmung von URL-Parametern
In Ihrem SEO-Arsenal stehen Ihnen sechs Tools zur Verfügung, um URL-Parameter auf strategischer Ebene zu handhaben.
Parameterbasierte URLs begrenzen
Eine einfache Überprüfung, wie und warum Parameter generiert werden, kann zu einem schnellen SEO-Erfolg führen.
Sie werden oft Möglichkeiten finden, die Anzahl der Parameter-URLs zu reduzieren und so die negativen Auswirkungen auf die SEO zu minimieren. Es gibt vier häufige Probleme, mit denen Sie Ihre Überprüfung beginnen sollten.
1. Eliminieren Sie unnötige Parameter
Bitten Sie Ihren Entwickler um eine Liste aller Parameter und Funktionen einer Website. Wahrscheinlich werden Sie Parameter entdecken, die keine nützliche Funktion mehr erfüllen.
Beispielsweise können Benutzer durch Cookies besser identifiziert werden als durch SessionIDs. Der SessionID-Parameter kann jedoch auf Ihrer Website weiterhin vorhanden sein, da er früher verwendet wurde.
Oder Sie stellen möglicherweise fest, dass ein Filter in Ihrer Facettennavigation von Ihren Benutzern selten angewendet wird.
Alle durch technische Schulden verursachten Parameter sollten sofort beseitigt werden.
2. Leere Werte vermeiden
URL-Parameter sollten einer URL nur dann hinzugefügt werden, wenn sie eine Funktion haben. Erlauben Sie nicht das Hinzufügen von Parameterschlüsseln, wenn der Wert leer ist.
Im obigen Beispiel haben Schlüssel2 und Schlüssel3 weder wörtlich noch im übertragenen Sinn einen Wert.
3. Schlüssel nur einmal verwenden
Vermeiden Sie die Anwendung mehrerer Parameter mit demselben Parameternamen und unterschiedlichen Werten.
Bei Mehrfachauswahloptionen ist es besser, die Werte nach einem einzelnen Schlüssel zu kombinieren.
4. Bestell-URL-Parameter
Bei einer Umstellung der gleichen URL-Parameter werden die Seiten von den Suchmaschinen als gleich interpretiert.
Aus Sicht von doppeltem Inhalt spielt die Parameterreihenfolge also keine Rolle. Aber jede dieser Kombinationen verbraucht Crawl-Budget und spaltet Ranking-Signale.
Vermeiden Sie diese Probleme, indem Sie Ihren Entwickler bitten, ein Skript zu schreiben, um die Parameter immer in einer konsistenten Reihenfolge zu platzieren, unabhängig davon, wie der Benutzer sie ausgewählt hat.
Meiner Meinung nach sollten Sie mit der Übersetzung der Parameter beginnen, gefolgt von der Identifizierung, dann der Paginierung, dann dem Hinzufügen von Filter- und Neuanordnungs- oder Suchparametern und schließlich der Nachverfolgung.
Pro:
- Sorgt für effizienteres Crawlen.
- Reduziert Probleme mit doppelten Inhalten.
- Konsolidiert Rankingsignale auf weniger Seiten.
- Geeignet für alle Parametertypen.
Nachteile:
- Mäßige technische Implementierungszeit.
Rel=”Canonical” Link-Attribut
Das Linkattribut rel=”canonical” weist darauf hin, dass eine Seite identische oder ähnliche Inhalte wie eine andere hat. Dies regt Suchmaschinen dazu an, die Rankingsignale auf die als kanonisch angegebene URL zu konsolidieren.
Sie können Ihre parameterbasierten URLs mit rel=canonical auf Ihre SEO-freundliche URL setzen, um Parameter zu verfolgen, zu identifizieren oder neu anzuordnen.
Diese Taktik ist jedoch nicht geeignet, wenn der Inhalt der Parameterseite nicht nahe genug am kanonischen Inhalt liegt, wie z. B. bei der Seitennummerierung, Suche, Übersetzung oder einigen Filterparametern.
Pro:
- Relativ einfache technische Umsetzung.
- Schützt sehr wahrscheinlich vor Problemen mit doppelten Inhalten.
- Konsolidiert Rankingsignale zur kanonischen URL.
Nachteile:
- Verschwendet Zeit beim Crawlen von Parameterseiten.
- Nicht für alle Parametertypen geeignet.
- Wird von Suchmaschinen als starker Hinweis und nicht als Anweisung interpretiert.
Meta Robots Noindex-Tag
Legen Sie für jede parameterbasierte Seite, die keinen SEO-Wert hinzufügt, eine Noindex-Direktive fest. Dieses Tag verhindert, dass Suchmaschinen die Seite indizieren.
URLs mit einem „Noindex“-Tag werden wahrscheinlich auch weniger häufig gecrawlt und führen, wenn das Tag über einen langen Zeitraum vorhanden ist, letztendlich dazu, dass Google den Links auf der Seite kein Follow-up zuweist.
Pro:
- Relativ einfache technische Umsetzung.
- Schützt sehr wahrscheinlich vor Problemen mit doppelten Inhalten.
- Geeignet für alle Parametertypen, die nicht indiziert werden sollen.
- Entfernt vorhandene parameterbasierte URLs aus dem Index.
Nachteile:
- Verhindert nicht, dass Suchmaschinen URLs crawlen, regt sie jedoch dazu an, dies seltener zu tun.
- Konsolidiert keine Rankingsignale.
- Wird von Suchmaschinen als starker Hinweis und nicht als Anweisung interpretiert.
Robots.txt nicht zulassen
Die robots.txt-Datei ist das, was Suchmaschinen zuerst sehen, bevor sie Ihre Site crawlen. Wenn sie sehen, dass etwas nicht zulässig ist, gehen sie nicht einmal dorthin.
Mit dieser Datei können Sie den Crawler-Zugriff auf alle parameterbasierten URLs (mit Disallow: /*?*) oder nur auf bestimmte Abfragezeichenfolgen blockieren, die nicht indiziert werden sollen.
Pro:
- Einfache technische Umsetzung.
- Ermöglicht effizienteres Crawlen.
- Vermeidet Probleme mit doppeltem Inhalt.
- Geeignet für alle Parametertypen, die nicht gecrawlt werden sollen.
Nachteile:
- Konsolidiert keine Rankingsignale.
- Entfernt keine vorhandenen URLs aus dem Index.
Wechseln Sie von dynamischen zu statischen URLs
Viele Leute glauben, der optimale Umgang mit URL-Parametern bestehe darin, diese einfach von vornherein zu vermeiden.
Schließlich übertreffen Unterordner die Parameter, um Google dabei zu helfen, die Struktur und Stati der Site zu verstehen c, schlüsselwortbasierte URLs waren schon immer ein Eckpfeiler der Onpage-SEO.
Um dies zu erreichen, können Sie serverseitige URL-Umschreibungen verwenden, um Parameter in Unterordner-URLs umzuwandeln.
Beispielsweise die URL:
www.example.com/view-product?id=482794
Würde werden:
www.example.com/widgets/purple
Dieser Ansatz eignet sich gut für beschreibende, schlüsselwortbasierte Parameter, wie etwa solche, die Kategorien, Produkte oder Filter für suchmaschinenrelevante Attribute identifizieren. Er ist auch für übersetzte Inhalte effektiv.
Problematisch wird es allerdings bei nicht keywordrelevanten Elementen der Facettennavigation, wie etwa einem genauen Preis. Ein solcher Filter bietet als statische, indexierbare URL keinen SEO-Mehrwert.
Dies stellt auch ein Problem für Suchparameter dar, da jede benutzergenerierte Abfrage eine statische Seite erstellen würde, die mit der kanonischen Seite um ein besseres Ranking konkurriert – oder schlimmer noch, den Crawlern Seiten mit Inhalten von geringer Qualität präsentiert, wenn ein Benutzer nach einem Artikel gesucht hat, den Sie nicht anbieten.
Es ist etwas seltsam, wenn es auf die Paginierung angewendet wird (obwohl es aufgrund von WordPress nicht ungewöhnlich ist), was eine URL wie
www.example.com/widgets/purple/page2
Sehr merkwürdig für die Neuordnung, die eine URL wie
www.example.com/widgets/purple/lowest-price
Und stellt für das Tracking oft keine praktikable Option dar. Google Analytics erkennt eine statische Version des UTM-Parameters nicht an.
Genauer gesagt: Das Ersetzen dynamischer Parameter durch statische URLs für Dinge wie Seitennummerierung, Ergebnisse im Suchfeld auf der Site oder Sortierung behebt nicht das Problem doppelter Inhalte, des Crawl-Budgets oder der Verwässerung des internen Link-Equity.
Wenn Sie alle Filterkombinationen aus Ihrer Facettennavigation als indexierbare URLs verwenden, führt dies häufig zu Problemen mit dünnem Inhalt. Insbesondere, wenn Sie Filter mit Mehrfachauswahl anbieten.
Viele SEO-Profis argumentieren, dass es möglich ist, das gleiche Benutzererlebnis zu bieten, ohne die URL zu beeinträchtigen. Beispielsweise indem man POST- statt GET-Anfragen verwendet, um den Seiteninhalt zu ändern. Auf diese Weise bleibt das Benutzererlebnis erhalten und SEO-Probleme werden vermieden.
Wenn Sie Parameter auf diese Weise entfernen, wird Ihrem Publikum jedoch die Möglichkeit genommen, diese bestimmte Seite als Lesezeichen zu speichern oder einen Link dorthin zu teilen. Dies ist offensichtlich für Tracking-Parameter nicht praktikabel und für die Paginierung nicht optimal.
Der springende Punkt ist, dass es für viele Websites einfach nicht möglich ist, Parameter vollständig zu vermeiden, wenn man ihnen ein optimales Benutzererlebnis bieten möchte. Und es wäre auch nicht die beste SEO-Praxis.
Das bleibt uns also. Implementieren Sie Parameter, die nicht in Suchergebnissen indexiert werden sollen (Paginierung, Neusortierung, Tracking usw.), als Abfragezeichenfolgen. Verwenden Sie für Parameter, die indexiert werden sollen, statische URL-Pfade.
Pro:
- Verschiebt den Crawler-Fokus von parameterbasierten auf statische URLs, die eine höhere Wahrscheinlichkeit für ein Ranking haben.
Nachteile:
- Erheblicher Aufwand an Entwicklungszeit für URL-Umschreibungen und 301-Weiterleitungen.
- Verhindert keine Probleme mit doppelten Inhalten.
- Konsolidiert keine Rankingsignale.
- Nicht für alle Parametertypen geeignet.
- Kann zu Problemen mit dünnem Inhalt führen.
- Bietet nicht immer eine URL, die verlinkt oder als Lesezeichen gespeichert werden kann.
Best Practices für die Handhabung von URL-Parametern für SEO
Welche dieser sechs SEO-Taktiken sollten Sie also umsetzen?
Die Antwort kann nicht lauten: alle.
Dies würde nicht nur unnötige Komplexität schaffen, sondern häufig stehen die SEO-Lösungen auch aktiv im Konflikt miteinander.
Wenn Sie beispielsweise „robots.txt disallow“ implementieren, kann Google keine Meta-Noindex-Tags sehen. Sie sollten auch keinen Meta-Noindex-Tag mit einem rel=canonical-Linkattribut kombinieren.
John Mueller, Gary Ilyes und Lizzi Sassman von Google konnten sich nicht einmal für einen Ansatz entscheiden. In einer Folge von Search Off The Record diskutierten sie die Herausforderungen, die Parameter für das Crawling darstellen.
Sie schlagen sogar vor, ein Tool zur Parameterbehandlung in die Google Search Console zurückzubringen. Google, wenn Sie dies lesen, bringen Sie es bitte zurück!
Es wird deutlich, dass es keine perfekte Lösung gibt. Es gibt Situationen, in denen Crawling-Effizienz wichtiger ist als die Konsolidierung von Autoritätssignalen.
Was für Ihre Website das Richtige ist, hängt letztendlich von Ihren Prioritäten ab.
Persönlich verfolge ich den folgenden Angriffsplan für eine SEO-freundliche Parameterbehandlung:
- Erforschen Sie die Absichten der Benutzer, um zu verstehen, welche Parameter suchmaschinenfreundliche, statische URLs sein sollten.
- Implementieren Sie eine effektive Seitennummerierung mithilfe eines ?page=-Parameters.
- Blockieren Sie für alle verbleibenden parameterbasierten URLs das Crawling mit einem Robots.txt-Disallow und fügen Sie als Backup ein Noindex-Tag hinzu.
- Überprüfen Sie noch einmal, dass in der XML-Sitemap keine parameterbasierten URLs übermittelt werden.
Unabhängig davon, welche Strategie zur Parameterbehandlung Sie implementieren, dokumentieren Sie unbedingt die Auswirkungen Ihrer Bemühungen auf die KPIs.
Weitere Ressourcen:
- URL-Weiterleitungen für SEO: Ein technischer Leitfaden
- So führen Sie JavaScript-Weiterleitungen für SEO durch
- Fortgeschrittenes technisches SEO: Ein vollständiger Leitfaden
Vorgestelltes Bild: BestForBest/Shutterstock