Seo

SEO: 2 gode måter å fjerne duplikatinnhold på, og 8 dårlige

Duplisert innhold er to eller flere sider som inneholder samme eller svært lik tekst. Duplisert innhold deler lenkeautoriteten og reduserer dermed en sides evne til å rangere i organiske søkeresultater.

La oss si at et nettsted har to identiske sider, hver med 10 eksterne, inngående lenker. Dette nettstedet kunne ha utnyttet styrken til 20 lenker for å øke rangeringen til en enkelt side. I stedet har nettstedet to sider med 10 lenker. Ingen av dem ville rangere like høyt.

Duplisert innhold skader også crawl-budsjettet og ellers blåser søkemotorenes indekser.

Netthandelssider lager duplikatinnhold. Det er et biprodukt av plattforminnstillinger og teknologibeslutninger. Det som følger er to gode måter å fjerne duplisert innhold fra søkemotorindekser - og åtte måter å unngå.

Fjern indeksert duplikatinnhold

For å korrigere indeksert, duplisert innhold, (i) konsolidere lenkeautoriteten til en enkelt side og (ii) be søkemotorene om å fjerne den dupliserte siden fra indeksen. Det er to gode måter å gjøre dette på.

  • 301 omdirigeringer er det beste alternativet. 301-omdirigeringer konsoliderer lenkeautoriteten, ber om deindeksering og omdirigerer også brukeren til den nye siden. Google har uttalt at den tildeler 100 prosent av koblingsautoriteten til den nye siden med en 301-viderekobling. Men Bing og andre søkemotorer er strammere. Uansett, bruk 301-viderekoblinger bare når siden er permanent fjernet.
  • Kanoniske tagger. "Kanonisk" er et fancy ord for noe som er anerkjent som den ene sannheten. I søkemotoroptimalisering identifiserer kanoniske tagger hvilken side som skal indekseres og tildeles lenkeautoritet. Taggene er forslag til søkemotorer - ikke kommandoer som 301-omdirigeringer. Søkemotorer respekterer vanligvis kanoniske tagger for virkelig duplisert innhold.

Kanoniske tagger er det nest beste alternativet når (i) 301-viderekoblinger er upraktiske eller (ii) den dupliserte siden må forbli tilgjengelig – for eksempel hvis du har to produktrutenettsider, den ene sortert fra høy til lav og den andre lav. -til høy, du vil ikke omdirigere den ene til den andre.

8 metoder for å unngå

Noen alternativer som fjerner - eller hevder å fjerne - duplikatinnhold fra søkeindekser er ikke tilrådelig, etter min erfaring.

  • 302 omdirigeringer signalisere et midlertidig trekk i stedet for permanent. Google har i årevis sagt at 302 omdirigeringer passerer 100 prosent av lenkeautoriteten. 302-er ber imidlertid ikke om deindeksering. Siden de krever like mye innsats å implementere som 301s, bør 302-viderekoblinger bare brukes når omdirigeringen virkelig er midlertidig og en dag vil bli fjernet.
  • JavaScript-omdirigeringer anses av Google som gyldige – etter at det har gått flere dager eller uker før gjengivelsen skal behandles. Men det er liten grunn til å bruke JavaScript-viderekoblinger med mindre du mangler servertilgang for 301s.
  • Meta oppdateres er synlige for kunder som en kort blip eller flere sekunders sideinnlasting på skjermen før nettleseren laster inn en ny side. De er et dårlig valg på grunn av den ubehagelige brukeropplevelsen og gjengivelsestiden Google trenger for å behandle dem som omdirigeringer.
  • 404 feil avsløre at den forespurte filen ikke er på serveren, noe som ber søkemotorene om å deindeksere den siden. Men 404s fjerner også sidens tilknyttede lenkeautoritet. Prøv å 301 omdirigere en slettet side når du kan.
  • Soft 404-feil oppstår når serveren 302 omdirigerer en dårlig URL til det som ser ut som en feilside, som deretter returnerer et 200 OK serverhodesvar. Si for eksempel example.com/page/ har blitt fjernet og skal returnere en 404-feil. I stedet omdirigerer den 302 til en side som ser ut som en feilside (som f.eks www.example.com/error-page/), men returnerer et 200 OK-svar.

302-svaret forteller søkemotorer utilsiktet det www.example.com/side/ er borte, men kan komme tilbake, så siden bør forbli indeksert. Dessuten forteller 200-svaret søkemotorene det www.example.com/error-page/ er en gyldig side for indeksering. Soft 404s blåser dermed indeksen ytterligere ved å resultere i at ikke bare én dårlig URL blir indeksert, men to.

  • Søkemotorverktøy. Google og Bing tilbyr verktøy for å fjerne en URL. Men siden begge krever at den innsendte URL-en returnerer en gyldig 404-feil, er verktøyene et sikkerhetskopieringstrinn etter at du har fjernet siden fra serveren din.
  • Meta roboter noindex stikkord er i hodet på HTML-filen. De noindex attributt forteller roboter om ikke å indeksere siden. Når den brukes etter at en side har blitt indeksert, kan det til slutt resultere i deindeksering, men det kan ta måneder. Dessverre dør lenkeautoriteten med motorenes evne til å indeksere siden. Og siden søkemotorer må fortsette å gjennomsøke en side for å bekrefte at noindex attributtet fortsatt er på plass, reduserer ikke dette alternativet dødvektssider fra indeksen. (Merk forresten at nofollow attributtet til metarobottaggen har ingen innvirkning på sidens indeksering.)
  • Robots.txt Disallow fører ikke til deindeksering. Sider som ikke er tillatt etter at de har blitt indeksert, gjennomsøkes ikke lenger av søkemotorroboter, men de forblir kanskje ikke indeksert. Det er usannsynlig at disse sidene vil vises i søkeresultater med mindre det søkes etter URL, men fordi søkemotorene ikke lenger vil gjennomsøke siden.

Selv om de ikke er ideelle for å fjerne indeksert innhold, er metaroboter noindex og robots.txt Disallow skal begge forhindre at nytt duplikatinnhold blir indeksert. Applikasjonen deres krever imidlertid at duplisert innhold identifiseres før lanseringen av et nytt nettsted, og de er ikke 100 prosent effektive.

Din beste innsats

Hvis du trenger en sikker metode for deindeksering, er en 301-viderekobling eller 404-feil det beste alternativet fordi serveren ikke lenger laster innholdet som ble funnet på den siden. Hvis du trenger å deindeksere siden og utnytte lenkeautoriteten, bruk en 301-viderekobling.

Relaterte artikler

0 kommentarer
Inline tilbakemeldinger
Se alle kommentarer
Tilbake til toppen-knappen