Joomla und duplicatet content

  • Hallo,
    ich habe bei einigen Projekten Probleme mit dem von Joomla generierten duplicatet content, dass ich nicht so richtig in Griff bekommen habe. Vielleicht hat jemand von euch die glorreiche Lösung oder ein passendes Plugin:


    1) Blogs mit Unterkategorien.
    Auf einer der Websites habe ich den News-Blog mit zwei Unterkategorien: Print und Webdesign. Nun sind die Beiträge über 2 Links in Google auffindbar:


    website.de/news/artikel123.html und website/news/webdesign/artikel123.html


    2) Joomla Tags produzieren ebenso duplicatet content:
    Wenn ein Artikel 2 Tags besitzt, z.B. Marketing und Webdesign, taucht der Artikel zusätzlich unter den folgenden Links auf:


    website.de/component/tags/tag/marketing


    und


    website.de/component/tags/tag/webdesign

  • Hallo,


    leider ist es bei Content Management Systemen so, dass diese in der Regel Daten aus einer Datenbank über Feld-Wert-Paare laden. Auch in Joomla können die gleichen Daten über mehrere URL-Kombinationen geladen werden.
    Wenn du keine Suchmaschinen freundlichen URLs (SEF) verwendest zeigt vielleicht



    das gleiche an.

    Ich meine aber einmal gelesen zu haben, dass Suchmaschinen dies erkennen. Finde im Moment aber dazu nichts. Weiß da jemand mehr?

    Es gibt aber verschiedene Möglichkeiten hier entgegen zu arbeiten: Stichwörter: Canonical URLs, die Verwendung von NOINDEX/NOFOLLOW, 301 Redirects, Sitemaps, Google Webmaster Tools, Robots.txt …..


    Falls du dich hier nicht auskennst oder dir die Arbeit nicht machen willst, kannst du auch im JED nach SEO Extensions suche.


    Viele Grüße
    Astrid

  • Ich gehe davon aus, dass der TE die Frage stellt weil er nicht wegen "duplicate content" von Suchmaschinen runtergestuft werden will. Echter duplicate Content ist es aber nicht, nur weil innerhalb eines Systems mehrere urls auf denselben Inhalt zeigen und Suchmaschinen erkennen das.


    Hier z.b gibt es auch eine Information und generell unter google webmastertools.

  • Vielen Dank für euer Feedback. Ich bin mir selber tatsächlich nicht sicher, wie Google mit den doppelt verlinkten Inhalten umgeht. Tatsache ist, dass man innerhalb von einem Blog auf den selben Inhalt verlinkt. Laut diverser Joomla-SEO Anleitungen sollte man unbedingt einen Alias-Link im Menu verwenden um duplicatet Content zu vermeiden. Also gehe ich davon aus, dass man dieses Problem nicht unterschätzen sollte.
    Was SEO-Komponenten angeht - ich habe schon einige ausprobiert. Am besten gefällt mir RS SEO. Aber auch hier tauchen dieselben Seiten mehrfach auf und werden als duplicate content gekennzeichnet. Über Canonical URLs kann man hier zumindest mein erstes Problem lösen - auch wenn es bei einer großen Website wirklich viel Arbeit bedeutet. Allerdings habe ich kein Rezept für die TAGS-generierten doppelten Inhalte gefunden. Und gerade die Tags kommen laut meiner Test bei Google gut an.
    Ich habe einige SEO-Tools wie SISTRIX und Seobility ausprobiert. Bei allen tauchen Warnungen wg. der oben genanten Probleme auf. Natürlich ist SISTRIX und Seobility nicht gleich Google, dennoch arbeiten da SEO-Profis und die Tools leisten sehr gute Arbeit.


    Gruß
    Robert

  • Hallo,


    Zitat

    Hier z.b gibt es auch eine Information und generell unter google webmastertools.


    vielen Dank Christiane. Auf der Seite, auf die dein Link verweist, steht
    tatsächlich, dass Google Inhalte, die wohl aufgrund von Parametern
    doppelt erscheinen, gruppiert und selbstständig eine „beste“ Seite wählt,
    falls es keine Sitemap gibt.


    Viele Grüße
    Astrid

    • Hilfreich

    Ich habe einige SEO-Tools wie SISTRIX und Seobility ausprobiert. Bei allen tauchen Warnungen wg. der oben genanten Probleme auf.


    Ich hatte einen Link gepostet der genau die Erfahrungen von SISTRIX wiederspiegelt.
    Außerdem, einen Link wie Du an "Dein" Problem herangehen kannst.


    Hast Du es gelesen und umgesetzt?

  • Hallo Astrid,


    Du empfiehlst einen Error 404 auszugeben. Wäre nicht eine Weiterleitung über 301 schöner ( benutzerfreundlicher)? Spricht da was dagegen?


    Durch eine 404 fällt die unerwünschte URL sicher (irgendwann) aus dem Googleindex raus.


    Zitat

    Hast Du es gelesen und umgesetzt?

    war eigentlich primär an den TE gerichtet ;).

  • Hallo


    @Indigo66
    ich habe mich auch nicht direkt angesprochen gefühlt J
    Hat mich aber trotzdem interessiert. Und interessiert mich auch immer noch. Ich habe hier leider überhaupt keine praktische Erfahrung. Deshalb frage ich noch einmal nach.


    Durch 301 fällt die unerwünschte URL zu den relevanten Suchbegriffen doch sicher auch weit nach hinten weg, wenn dies noch mit einer Sitemap unterstütz wird, oder? Hast du da schlechte Erfahrungen gemacht?


    Viele Grüße
    Astrid

  • Durch 301 fällt die unerwünschte URL zu den relevanten Suchbegriffen doch sicher auch weit nach hinten weg, wenn dies noch mit einer Sitemap unterstütz wird, oder? Hast du da schlechte Erfahrungen gemacht?


    Ich will ja nicht, das die URL weit nach hinten fällt, sondern komplett aus dem Index fällt.
    Schlechte Erfahrung, nein, aber gute Erfahrung mit der 404. Rein vom Gefühl, reagiert Google schneller auf 404er, weil es ja so schnell wie möglich seine Index bereinigt haben will. Ich habe keine augiebigen Tests mit 301 gemacht, sondern war von der Ergebnis soweit zufrieden dass ich es einfach gelassen habe.


    Vielleicht testest Du ja und kommst auf bessere Ergebnisse?

  • @ Tom. Sorry, ich habe tatsächlich auch deine erste Nachricht, bzw. die Links nicht ausführlich gelesen. Es gab ja gleichzeitig die unterschiedlichsten Meldungen. Gerade der Joom.Support Beitrag ist sehr hilfreich. Ich werde die Änderungen in der HTACCESS Datei vornehmen und euch berichten, wie es sich auf die Ergebnisse ausgewirkt hat. Spannendes Thema auf jeden Fall und es gibt wenig im Web dazu zu finden (zumindest im deutschsprachigen Raum)

  • @Indigo66
    Hallo Tom, ich habe die HTACCESS Datei vor einigen Tagen nach deiner Anleitung ergänzt. Joomlas aktuelle HTACCESS Datei sieht zwar etwas anders aus (dein Tutorial ist ja von 2013) aber immerhin hat es meiner Meinung nach was gebracht. Die bekannten Seo-Tools melden keinen duplicatet Content mehr und unser Keyword-Monitoring zeigt sogar eine Steigerung der Keywords in den Suchergebnissen. Es kann zwar mit anderen Faktoren zusammen hängen (unsere aktuellen News-Artikel) - dennoch hat man ein besseres Gefühl, wenn die SEO-Software plötzlich 300 Fehler weniger anzeigt.


    Was mich noch interessieren würde: Die Tags ranken oft besser als die eigentlichen Artikel. Hat man beispielsweise einen Tag "marketing" in mehreren Artikeln verwendet - werden die Tag-Listings von Google schneller gefunden, als die eigentliche Landing-Page zum Thema "Marketing". Google zeigt in den Ergebnissen also als erstes folgenden Link an:
    www.website.de/component/tags/tag/marketing

  • Das Tags-Phänomen kann ich bestätigen. Ich sperre mittlerweile die Tags-Seiten per robots.txt, aber nur weil's mich nervt. Kein fundierter Grund dahinter. Vielleicht hat's was mit aktueller zu tun. Vielleicht wegen höherer/besserer Kexwords-Dichte. Häufiger verlinkt auf der Seite und damit als "wichtiger" betrachtet...