Duplicate Content

  • ... obwohl ich in der global config noindex/nofollow angebe .....

    Steht aber doch immer auf index, follow . Hast du in den Menüpunkten abweichende Angaben gemacht?

    Nebenbei: Die Links aus #1 sind so nicht direkt aufrufbar.


    Und warum überhaupt doppelte Slashes hinter Disallow: /component/ ?


    Bei "Benutzername vergessen" wird ItemID=101 verwendet. Das ist natürlich die Startseite. Ich würde mir in diesem Fall aber keine Gedanken über doppelte Seitentitel machen.

  • noindex/nofollow habe ich auf default gestellt in der Hoffnung darauf, dass events booking so keine Unmengen an Duplicate Content mehr produziert. Tut es aber dennoch. Habe diesbezüglich im Moment ein Ticket bei joomdonation laufen.

    Bei "Benutzername vergessen" wird ItemID=101 verwendet. Das ist natürlich die Startseite. Ich würde mir in diesem Fall aber keine Gedanken über doppelte Seitentitel machen.

    Ich habe keine Probleme mit doppelten Seitentiteln. Soweit ich aber gehört habe, bringt das die Seite SEO-mäßig nicht gerade nach vorne.


    lg Dirk

  • Soweit ich aber gehört habe, bringt das die Seite SEO-mäßig nicht gerade nach vorne.

    Es wird behauptet, dass sich solche Seiten gegenseitig kannibalisieren. Wenn Du kein Problem darin siehst, dass sich die Seiten die Klicks und Besucher teilen, kannst Du beruhigt schlafen gehen ;-).

  • Es wird behauptet, dass sich solche Seiten gegenseitig kannibalisieren. Wenn Du kein Problem darin siehst, dass sich die Seiten die Klicks und Besucher teilen, kannst Du beruhigt schlafen gehen ;-).

    Ja, das mit dem Kannibalismus habe ich auch so gehört. Leidet also das Ranking der Domain darunter oder nicht?

  • Leidet also das Ranking der Domain darunter oder nicht?

    Eher nicht, soweit die Seiten unterschiedlichen Inhalt haben. Überlegt man genau, ist es ja auch total bescheurt, dass 2 unterschiedliche Seiten nicht den selben Seitentitel haben sollten/dürfen.


    Für die components/user/remind sollte es gehen, dass du einen versteckten Menüpunkt des Typs "Benutzername erneut zusenden" anlegst. Darin kannst dann robots="noindex,nofollow" und auch Seitentitel individuell eingeben etc. Ersteres sollte man eh für ALLE dieser Seiten machen, die was mit Benutzerkram zu tun haben.


    Wenn alles richtig läuft sollte dann auch der Link "Benutzername vergessen?" unter dem ANmeldeformular erneuert werden.


    Und sollte dann in der neu verlinkten Seite im Seitenquelltext robots="noindex,nofollow" stehen und dein Tool immer noch meckern, ist es halt "schlecht", das Tool.

  • Das verstehe ich nicht wirklich.

    1. Zunächst: die Seiten sind ja identisch, haben also denselben Inhalt, werden nur auf multiplem Wege durch Joomla angeboten und produzieren so Duplicate Content.

    2. Wie und wo erstelle ich solch einen versteckten Menüpunkt des Typs "Benutzername erneut zusenden"?

    btw: sollte in der robots.txt mit Blick auf SEO stehen "Disallow: /component/" oder eher nicht? Und wenn ja, mit Slash oder ohne?


    Grüße, Dirk

  • Wie und wo erstelle ich solch einen versteckten Menüpunkt des Typs "Benutzername erneut zusenden"?

    Na unter Menüeinträge in erster Ebene anlegen und dann stellst halt ein, das er versteckt sein soll ;)



    Ich blicke aber eh nicht mehr durch, was dein Problem ist. Warum sollte es hinsichtlich SEO ein Problem sein, wenn du irgendwelche vollkommen uninteressanten Seiten via robots versteckst? Das ist eher SEO-nützlich, wenn du Schrott vor Suchmaschinen versteckst und nur Seiten "öffnest", die Bedeutsame Inhalte haben. Und, wenn sie schon mal Schrott entdeckt haben und du den dann via robots sperrst, maulen sie vielleicht, werden aber irgendwann den Link aus ihrem Index entfernen.

  • Na unter Menüeinträge in erster Ebene anlegen und dann stellst halt ein, das er versteckt sein soll ;)



    Ich blicke aber eh nicht mehr durch, was dein Problem ist. Warum sollte es hinsichtlich SEO ein Problem sein, wenn du irgendwelche vollkommen uninteressanten Seiten via robots versteckst? Das ist eher SEO-nützlich, wenn du Schrott vor Suchmaschinen versteckst und nur Seiten "öffnest", die Bedeutsame Inhalte haben. Und, wenn sie schon mal Schrott entdeckt haben und du den dann via robots sperrst, maulen sie vielleicht, werden aber irgendwann den Link aus ihrem Index entfernen.

    Der Schrott ist ja offenbar nicht versteckt, denn trotz robots.txt werden sie munter von Seobility gecrawlt und als duplicate content ausgewiesen. Das ist das Problem. Und es betrifft praktisch nur die Komponente "Events Booking".

    Nochmal: Die Base-Config ist auf "noindex/nofollow" gesetzt und ich habe nur die Seiten mit "index/follow" markiert, die auch tatsächlich gelesen werden sollen (natürlich im Menü und nicht im Beitrag) und alle Ordner in der robots.txt mit "Disallow" ausgewiesen.

    Auch das mit dem Menüpunkt habe ich gemacht, das ändert allerdings wohl nichts. Was soll es denn eigentlich tun?

    Seobility wird in den Vergleichen meist als bestes Onsite-SEO-Tool angepriesen. Ist es denn Schrott?


    Grüße, Dirk