SEO

Sollten interne Suchergebnisseiten indiziert werden?

Nein, die Suchergebnisseiten Ihrer Website sollten in den meisten Fällen nicht von Google und anderen Suchmaschinen indiziert werden.

Langjährige Weisheiten zur Suchmaschinenoptimierung besagt, dass die Ergebnisseiten Ihrer Site-Suche Suchmaschinen-Bots blockieren und nicht in den Seitenindex einer Suchmaschine aufgenommen werden sollten.

Der Grund dafür ist, die Nutzer von Google nicht zu enttäuschen und zu verhindern, dass Suchmaschinen-Crawler ihre Zeit damit verschwenden, Seiten herunterzuladen und zu analysieren, die den Besuchern oder Ihrem Unternehmen vermutlich nicht weiterhelfen.

Benutzererfahrung

Suchmaschinen möchten ihren Nutzern ein gutes Sucherlebnis bieten. Aus diesem Grund verbringen beispielsweise Google, Bing und DuckDuckGo so viel Zeit damit, die richtigen Suchergebnisse zu erhalten.

Leider ist eine Suchergebnisseite Ihrer Website möglicherweise kein gutes und relevantes Ergebnis.

Hier ist ein Beispiel. Stellen Sie sich vor, eine Person geht zu Google und tippt "Was ist der beste Laufschuh für schwere Läufer?"

Unter den angezeigten Ergebnissen befindet sich ein Ergebnis aus den internen Suchergebnissen Ihrer Website. Aber die indizierte und verlinkte Seite ist eine Liste von Produkten zum Suchbegriff „Herrenlaufschuhe“.

Diese interne Suchergebnisseite enthält auch einen Abschnitt, in dem für einen der Blog-Posts Ihres Unternehmens geworben wird. Es ist dieser Blogbeitrag, der schwere Läufer erwähnt und irgendwie indiziert ist.

Diese interne Suchergebnisseite wäre keine großartige Zielseite und sollte wahrscheinlich nicht in den Index aufgenommen werden.

Diese interne Suchergebnisseite wäre keine großartige Zielseite und sollte wahrscheinlich nicht in den Index aufgenommen werden.

Dieses Ergebnis ist nicht hilfreich. Die Person, die die Suchmaschine verwendet, muss zweimal auf die Suchergebnisse von Google und einmal auf die internen Ergebnisse Ihrer Website klicken, um zu den gewünschten Informationen zu gelangen. Darüber hinaus könnte der Besucher das Ergebnis falsch interpretieren und annehmen, dass Ihre Website ihm eine Liste mit gepolsterten Laufschuhen anzeigt, nur um nach der Bestellung enttäuscht zu sein.

Ein schlimmeres Beispiel stammt aus einem Artikel von Matt Tutt aus dem Jahr 2018, einem britischen Experten für technisches SEO.

In dem Artikel wies Tutt darauf hin, dass der Online-Händler Wayfair die Indexierung einiger seiner dynamisch generierten Suchergebnisseiten zulässt.

Wenn Sie zum Zeitpunkt von Tutts Artikel bei Google nach „Wayfair.com“ mit einer bestimmten geschlechtsbezogenen Phrase gesucht haben, würden Sie ein Ergebnis sehen.

Wayfair fügte seinen Suchseitenbeschreibungen dynamisch Schlüsselwörter hinzu, so dass die Kopie, die Sie in der SERP von Google sehen würden, lautete: „Kaufen Sie Wayfair nach dem besten [sexbezogenen Wort]. Genießen Sie kostenlosen Versand für die meisten Sachen, sogar für große Sachen.“

„Wenn Sie mutig genug wären, sich durch die obige SERP zu klicken, würden Sie von der folgenden Kopie begrüßt“, so Tutt.

„[Geschlechtsbezogenes Wort]. Wir bei Wayfair möchten sicherstellen, dass Sie beim Online-Shopping die besten Haushaltswaren finden. Sie haben nach [Geschlechtswort] gesucht und diese Seite zeigt die nächsten Produktübereinstimmungen an…“

Wie Tutt feststellt, ist diese Seite und ihre Kopie „nicht die Art von Inhalten, die Benutzer oder Suchmaschinen als Anbieter von Wohnmöbeln finden sollen“.

Mit anderen Worten, viele interne Suchergebnisseiten werden automatisch generiert und sind möglicherweise kein guter Inhalt für Benutzer, die bei Google oder einer anderen Suchmaschine suchen.

Wayfair hat seitdem seine Suchergebnisse so geändert, dass eine Suche nach diesem bestimmten Schlüsselwort jetzt „Stifte“ auf der Wayfair-Site zurückgibt und nicht mehr den ursprünglichen Sexbegriff.

Wenn Sie die Indexierung dynamischer Seiten zulassen, wissen Sie nicht, welche Ergebnisse Ihr Unternehmen potenziellen Kunden zeigt.

Wenn Sie die Indexierung dynamischer Seiten zulassen, wissen Sie nicht, welche Ergebnisse Ihr Unternehmen potenziellen Kunden zeigt.

Das ist nicht viel besser. Google möchte wahrscheinlich kein Ranking der internen Suchergebnisseiten Ihres Unternehmens erstellen, und Sie verschwenden viel Energie des Googlebots, wenn Sie so wollen, auf Seiten, die Ihrem Unternehmen möglicherweise nicht viel nützen.

Verloren im Unkraut

„Bei internen Suchseiten spielen für uns zwei Aspekte eine Rolle“, sagte John Mueller von Google während eines Webmaster Central Hangouts im April 2018.

„Einer davon ist, dass wir uns sehr leicht im Unkraut verlieren, wenn wir versuchen, alle Ihre internen Suchseiten zu crawlen. Wenn im Grunde jedes Wort auf Ihrer Website zu einer internen Suchseite führen könnte und wir alle diese potenziellen internen Suchseiten haben und alle Inhalte bereitstellen, dann könnten unsere Systeme losfahren und sagen: "Oh, wir werden versuchen, alle zu crawlen". Ihrer internen Suchseiten, denn vielleicht gibt es dort etwas wirklich Nützliches.' Aus Sicht des Crawlings ist das also wahrscheinlich nicht so optimal.“

Der Googlebot weist jeder Site Zeit – das „Crawl-Budget“ zu. Es gibt vermutlich bessere Seiten auf Ihrer Website zum Crawlen als interne Suchergebnisse.

Eine Ausnahme

Tutt, Mueller und andere erwähnen, dass es wahrscheinlich eine Ausnahme von der Regel gibt: Wenn Sie die internen Suchergebnisse Ihrer Site für Kategorieseiten verwenden.

Erweiterte Suchplattformen – zB Twiggle, Algolia – können Produktkategorie- oder Markenseiten generieren. Ein Händler könnte die Plattform mit Synonymen und Antonymen konfigurieren, um eine Kategorie bereitzustellen oder auszuschließen.

Suchmaschinen blockieren

Es gibt mindestens zwei Möglichkeiten, Google und andere Suchmaschinen anzuweisen, die internen Suchergebnisseiten Ihrer Website nicht zu indizieren: die noindex Direktive im Kopfbereich jeder Seite und die verbieten Regel in einer robots.txt-Datei. (Ich habe dieses Thema bei „SEO: Sagen Sie Google, welche Seiten nicht gecrawlt werden sollen“ angesprochen.)

Nachdem ich angesprochen hatte, warum Händler die Indexierung interner Suchergebnisseiten blockieren sollten, habe ich dann überprüft, wie dies bei 10 führenden E-Commerce-Sites gemacht wurde. Am 9. März 2020 habe ich die robots.txt-Datei jeder Website auf ein . überprüft verbieten Regel und außerdem überprüfte Site-Suchergebnisse für die noindex Richtlinie.

unsere Verpflichtung zum Schutz der Privatsphäre der Benutzer der Website https://pardon.re und Unterseiten (Datenschutz Richtlinie) Robots.txt nicht zulassen noindex
Amazon Nein Nein
Barnes & Noble Ja Ja
Bade-und Körperarbeiten Ja Nein
Best Buy Nein Nein
GameStop Ja Ja
Home Depot Ja Nein
Lands 'End Ja Nein
Sur La Table Ja Ja
Target Ja Ja
Walmart Ja Nein

Ich habe mich aufgrund ihrer Bekanntheit für Amazon, Walmart und Target entschieden. Die anderen sieben habe ich mehr oder weniger zufällig aus einer Liste von E-Commerce-Sites ausgewählt, denen ich folge. Beachten Sie, dass Amazon und Best Buy externe Suchmaschinen nicht daran gehindert haben, interne Suchergebnisseiten zu indizieren. Die restlichen acht haben blockiert, entweder über die Robots.txt verbieten oder nach einem noindex Richtlinie.

Verwandte Artikel

0 Kommentare
Inline-Feedbacks
Alle Kommentare anzeigen
Nach oben-Taste