Seo

David vs. Goliath: Verschafft Google großen Websites einen unfairen SEO-Vorteil?

Steigern Sie Ihre Fähigkeiten mit den wöchentlichen Experteneinblicken von Growth Memo. Kostenlos abonnieren!

Die Stimmen, die Google für die Tötung kleiner Websites kritisieren, werden immer lauter.

Fälle wie HouseFresh oder Retro Dodo erregten viel Aufmerksamkeit und lieferten überzeugende Fälle. Hardcore-Updates und die wachsende Kluft zwischen SEOs, Publishern und Google gießen zusätzlich Öl ins Feuer.

Der volatilste Markt der Welt ist nicht Brasilien, Russland oder China. Es ist die Google-Suche. Auf keiner Plattform gibt es so viele Anforderungsänderungen. In den letzten drei Jahren hat Google 8 Core-, 19 große und 75–150 kleinere Updates veröffentlicht. Das Unternehmen erwähnt jedes Jahr Tausende von Verbesserungen.

Die gängige Argumentation ist, dass Google unter der Last der Kommerzialisierung des Internets auseinanderbricht. Oder Google schaltet Zwischenhändler wie Affiliates und Publisher aus und leitet den Traffic direkt an Softwareanbieter und E-Commerce-Marken weiter.

Aber stützen die Daten diese Behauptungen?

Wie das Sprichwort sagt: „Auf Gott vertrauen wir, alle anderen müssen Daten mitbringen.“

Eine Illustration zweier Krieger im Kampf.Bildquelle: Lyna™

Verschafft Google großen Websites einen unfairen SEO-Vorteil?

Ich habe Websites, die in den letzten 12 Monaten den meisten SEO-Traffic verloren oder gewonnen haben, gründlich analysiert, um die Frage zu beantworten, ob große Websites einen unfairen SEO-Vorteil erhalten.

TL;DR: Google scheint in der Tat große Websites schneller wachsen zu lassen, aber das liegt wahrscheinlich an sekundären Faktoren und nicht an der Menge an Traffic, die sie erhalten.

Methode

  • Ich habe die 1.000 Websites ermittelt, die in den letzten 12 Monaten am meisten Sichtbarkeit gewonnen bzw. verloren haben, jeweils von Sistrix. Ich habe die relative Änderung anstelle der absoluten Änderung ausgewählt, um die Größe der Website zu normalisieren. Für die Liste der Gewinnerseiten habe ich eine SEO-Sichtbarkeit von mindestens eins festgelegt, um Spam und Lärm herauszufiltern.
  • Anschließend habe ich die Seiten mit Backlinks und Traffic-Daten von Ahrefs abgeglichen, um Korrelationen zu Faktoren wie Site-Traffic oder Backlinks durchzuführen.

Ergebnisse

Websites mit höheren Sichtbarkeitsperzentilen haben einen starken Zusammenhang mit dem SEO-Sichtbarkeitswachstum in den letzten 12 Monaten.

Bei Websites, die ihre Sichtbarkeit verloren haben, besteht kein Zusammenhang zwischen der Größe ihres Verlusts und der SEO-Sichtbarkeit. Wir können daher sagen, dass größere Websites mit größerer Wahrscheinlichkeit im SEO-Bereich erfolgreich sind.

Balkendiagramm mit den Perzentilen des SEO-Vorteils und der durchschnittlichen Veränderung in den letzten 12 Monaten.Websites in höheren Perzentilen (= mehr SEO-Sichtbarkeit) verzeichnen ein stärkeres Wachstum (Bildnachweis: Kevin Indig)

Vergessen wir jedoch eines nicht: Neue Websites können immer noch groß werden. Es ist schwieriger als vor fünf oder zehn Jahren, aber es ist möglich.

Es gibt zwei Gründe, warum große Websites tendenziell mehr organischen Traffic generieren.

Ein Grund dafür ist, wie Google Ranking-Signale gewichtet. Größere Websites verfügen tendenziell über mehr AutoritätDies ermöglicht es ihnen, für mehr Begriffe zu ranken und ihre Sichtbarkeit zu erhöhen, wenn sie Skalierungsprobleme vermeiden, die Qualität der Inhalte hoch halten und Benutzer weiterhin durch die Lösung ihrer Probleme zufriedenstellen können.

Nach unserem Verständnis ist Autorität das Ergebnis von Backlinks, Inhaltsqualität und Markenstärke.

Google scheint sich dessen bewusst zu sein und Maßnahmen zu ergreifen.

Die Korrelation zwischen SEO-Sichtbarkeit und der Anzahl der verlinkenden Domains ist stark, lag jedoch im Mai 2023 (.81) höher als im Mai 2024 (0,62). Websites, die organischen Traffic verloren haben, zeigten geringere Korrelationen (0,39 im Mai 2023 und 0,41 im Mai 2024).

Obwohl Websites, die organisch sichtbarer geworden sind, mehr Backlinks haben, scheint das Signal in den letzten 12 Monaten deutlich zurückgegangen zu sein. Das Backlink-Volumen ist immer noch wichtig, aber seine Wirkung nimmt ab. Allerdings sind Volumen und Qualität zwei verschiedene Paar Sneaker.

Der zweite Grund, warum große Websites mehr organischen Traffic erzielen, ist das Hidden Gem-Update von Google, das Folgendes bietet Vorzugsbehandlung gegenüber Online-Communities. Die Auswirkungen sind in den Daten deutlich sichtbar.

Ganz oben auf der Gewinnerliste stehen Online-Communities wie:

  • Reddit.
  • Quora.
  • Steam-Community.
  • Stapelaustausch.
  • Fragen Sie Ubuntu.

Anekdotisch habe ich ein starkes Wachstum bei beliebten SaaS-Anbieter-Communities wie HubSpot, Shopify und Zapier festgestellt. Sicherlich gibt es Online-Communities, die nicht die gleiche Sichtbarkeit haben wie die großen, aber in den letzten 12 Monaten dennoch deutlich gewachsen sind.

Die Liste der Verlierer konzentriert sich auf Verlage und E-Commerce. Überraschenderweise verloren große Verlage ebenso wie kleinere Verlage organischen Traffic durch klassische blaue Links.

Beispiele für große Verlage:

  • nypost.com (-62,3 %).
  • bbc.com (-58,6 %).
  • nytimes.com (-40,3 %).
  • cnn.com (-40,1 ​​%).
  • theguardian.co.uk (-32,8 %).

Beispiele für Kleinverlage:

  • makeuseof.com (-79 %).
  • dailyhealth.com (-70,6 %).
  • thespruce.com (-58,5 %).
  • goodhousekeeping.com (-46,5 %).
  • verywellfamily.com (-38,4 %).

Bedenken Sie, dass Verlage viel stärker auf den Traffic von Top Stories, Google News und Google Discover angewiesen sind, der sich nicht in den Daten widerspiegelt.

Beliebt Parasiten-SEO-Ziele wie chron.com oder timesofindia.com verloren erheblichen SEO-Traffic, ebenso wie Websites, die nicht auf der Liste stehen, wie medium.com oder LinkedIn.com/pulse. Wie viel Aufwand Google in die Bereinigung der Suchmaschinen-Ergebnisseiten (SERPs) investiert, ist unklar.

Zwei Drittel der Websites auf der Gewinnerliste waren entweder SaaS-Unternehmen, E-Commerce-Unternehmen, Bildungsunternehmen oder Online-Communities, mit Zuwächsen zwischen 63 % und 83 %.

Über 50 % der Websites auf der Verliererliste waren Verlage oder E-Commerce-Websites mit Verlusten zwischen -45 % und -53 % der SEO-Sichtbarkeit.

Es ist viel schwieriger, im E-Commerce- und Publisher-SEO erfolgreich zu sein, da fast doppelt so viele E-Commerce- und fünfmal so viele Publisher an SEO-Sichtbarkeit verloren haben, als sie gewonnen haben.

Balkendiagramm, das die Anzahl der großen Websites nach Branche darstellt, die SEO-Sichtbarkeit gewonnen oder verloren haben. Bildnachweis: Kevin Indig

Die Top 5 Verliererseiten mit der höchsten SEO-Sichtbarkeit im Mai 2023 sind:

  1. target.com (-35,5 %).
  2. wiktionary.org (-61,5 %).
  3. etsy.com (-43,6 %).
  4. nytimes.com (-40,3 %).
  5. thesaurus.com (-59,7 %).

Ich habe kein erkennbares Muster für länderspezifische Top-Level-Domains (ccTLDs) gefunden: 75 % der Websites auf der Gewinnerliste hatten .com-ccTLDs. Nur 65 waren .edu, 39 waren .gov und 94 waren .org.

Einschränkungen

  • Die größte Einschränkung der Analyse besteht natürlich darin, dass Websites aufgrund von SEO-Kampagnen, technischen Problemen oder Domain-Migrationen Traffic gewonnen oder verloren haben könnten.
  • Die zweite Einschränkung ist die kleine Stichprobenmenge von 2.000 Websites. Auch wenn die Analyse nur die Spitze des Eisbergs betrachtet, könnte das Internet Millionen von Websites enthalten.

Offene Fragen

Es gibt viel Raum für Interpretationen, wenn wir auf großen Websites über das Wort „groß“ sprechen. Sprechen wir über eine bestimmte Menge an Traffic, über die Tatsache, dass wir einem großen Unternehmen gehören oder dass wir eine Menge Geld verdienen, wenn wir eine große Website als „groß“ bezeichnen?

Ich habe mich in dieser Analyse auf den organischen Traffic konzentriert, aber es wäre interessant zu sehen, wie einige der größten Unternehmen im SEO-Bereich abschneiden. Ein Anhaltspunkt könnte Glen Allsopps Analyse der großen Verlage sein, die die SERPs dominieren.

Eine andere Frage ist, wann Google große Websites belohnt. Während Algorithmus-Updates? Kontinuierlich im Laufe der Zeit? Eine Antwort würde uns helfen, besser zu verstehen, wie Google funktioniert.

Ich möchte Sie damit belassen: Nach meiner Interpretation der Daten ist es oft das, was große Websites erfolgreich gemacht hat, was ihr Wachstum am Laufen hält. Wenn eine Website die richtige Qualität für den Inhalt oder eine gute Benutzererfahrung findet, ist es wahrscheinlicher, dass sie kontinuierlich wächst als Websites, deren Traffic stagniert oder zurückgegangen ist.

Persönlich bezweifle ich, dass sich die Leute bei Google bewusst dafür entscheiden, „eine Nische zu erobern“ oder „kleine Websites zu töten“, sondern dass algorithmische Entscheidungen zu diesen Ergebnissen führen.

Das heißt nicht, dass Google keine gewisse Verantwortung trägt.


Ausgewähltes Bild: Paulo Bobita/Search Engine Journal

Related Articles

Leave a Reply

Back to top button