Meer en meer webmasters bouwen websites met publiekelijk beschikbare content (data feeds, nieuwsfeeds, artikelen). Dit resulteert in websites met dubbele inhoud op het internet. In gevallen van websites bouwen op nieuwsfeeds of data feeds kunt u zelfs websites die passen bij elkaar 100% (behalve voor het ontwerpen) te vinden. Meerdere exemplaren van dezelfde inhoud in een zoekmachine niet echt geen goed en dus Google blijkbaar besloten om onkruid uit een aantal van deze duplicate content te kunnen schonere en betere zoekresultaten te leveren.
Plain kopieën van websites werden het zwaarst getroffen. Als een webmaster op meer dan één domeinnaam is het publiceren van de exact dezelfde inhoud, werden alle domeinen in kwestie uiteindelijk verwijderd uit de index van Google. Veel websites op basis van affiliate programma's plotseling nam een grote hit in het verlies van het verkeer van Google.com.
Kort daarna begonnen enkele webmaster forums zag dezelfde klachten en verhalen weer en als 1 + 1 werd samen een duidelijk beeld van de situatie beschikbaar was: een duplicate content filter werd toegepast
duplicate content is niet altijd slecht. en zal altijd bestaan in een of andere manier. Nieuws websites zijn het beste voorbeeld van duplicate content. Niemand verwacht deze te laten vallen uit de index van Google.
Dus, hoe kunnen webmasters voorkomen dat de duplicate content filter? Er zijn nogal wat dingen webmasters kunnen doen bij het gebruik van duplicate content van welke aard en toch unieke pagina's en de inhoud van het te maken. Laten we een paar van deze opties uitgelegd hier.
1) Unieke content op pagina's met duplicate content.
Op de pagina's waar de duplicate content wordt gebruikt, moeten unieke content worden toegevoegd. Ik bedoel niet als een paar andere woorden of een link /navigatiemenu.
Als u (de webmaster) kan toevoegen 15% - 30% unieke content op pagina's waar u duplicate content weer te geven van de totale verhouding van duplicate content in vergelijking met de algemene inhoud van die pagina naar beneden gaat. Dit zal het risico van het hebben van een pagina gemarkeerd als duplicate content te verminderen.
2) randomisatie van de inhoud
Ooit gezien die "Citaat van de dag" dingetjes op sommige websites? Het voegt een willekeurige citaat van de dag naar een pagina op een bepaald moment. Elke keer als je terug te komen op deze pagina zal er anders uitzien.
Die scripts kunnen worden gebruikt voor veel meer dingen da