Définition : qu’est-ce que le duplicate content en référencement naturel ?
On parle de contenu dupliqué en référencement, lorsque d’une manière ou d’une autre, un contenu d’une page ou d’un site est multiplié à l’identique sur internet. Le terme peut également se référer à l’action de filtrage des moteurs de recherche, notamment Google, qui traquent et éliminent le plus possible les éventuels doublons de contenus ou de pages. Il faut noter que cette duplication peut être intentionnelle, dans le but de donner plus de chances à une page web ou à un site de se retrouver parmi les résultats qui s’affichent, dans un processus de recherche.
D’autre part, il peut arriver que plusieurs pages d’un même site ou de sites différents soient perçues comme du duplicate content, alors que ce n’est pas forcément le cas. Dans ce cas, le moteur de recherche peut avoir considéré certains contenus web comme identiques, s’il existe des similitudes (citation d’auteurs, d’autres sites, etc.) dans les textes. Il peut arriver aussi qu’une supposée duplication de contenus soit détectée à tort sur une page contenant plusieurs URL.
Les risques liés au contenu dupliqué
Qu’il soit volontaire ou involontaire, le duplicate content nuit non seulement à l’expérience de navigation, mais aussi à la qualité des informations affichées par les moteurs de recherche. En effet, malgré que ces derniers soient programmés pour les détecter, il est toujours possible que des cas de contenu dupliqué échappent aux filtres. Quand c’est le cas, les contenus qui s’affichent sont très peu informatifs, puisque l’internaute peut se retrouver à cliquer sur des résultats qui ne le ramènent qu’à des contenus identiques.
D’un autre côté, une page ou un site mal référencé peut se retrouver bloqué, tout simplement parce que des contenus dupliqués se sont retrouvés par erreur à l’intérieur.
Dans l’un ou dans l’autre des cas, il convient de veiller à soigner la présentation de ses pages pour ne pas risquer d’être injustement pénalisé soi-même, ou d’encombrer les moteurs de recherche avec du contenu identique. Aussi, il est possible d’éviter le duplicate content en créant des URL uniques et en indiquant ceux qui sont canoniques, en renseignant convenablement le fichier Robots.txt, ou tout simplement en procédant à un bon référencement.