Fehlermeldung durch URL-Anhang ?rCH=2

  • Hallo zusammen,


    ich bekomme bei einem SEO-Check die Fehlermeldung der doppelten Titeltags und Meta-Beschreibungen sowie die Fehlermeldung der temporären statt permanenten Umleitung der ?rCH=2 URL auf die jeweils eigentliche URL. Ein Beispiel:


    https://www.katzeninfo.com/katzengarten

    https://www.katzeninfo.com/katzengarten?rCH=2


    So wird es dann für jede einzelne URL fortgeführt. Ich hab hab keine Ahnung wie sich diese ich nenne es mal "erweiterte URL" in Joomla ergibt und konnte mir auch keinen Hinweis ergoogeln. Kann mir da jemand auf die Sprünge helfen? Würde das Problem gern beseitigen, weiß aber nicht, wo und wie.


    Beste Grüße

  • Und beim katzengarten fällt mir auf, dass im Seitenquelltext canonicals gesetzt werden. Canonicals sind allen SEO-Legenden zum Trotz nur dann zu setzen, wenn sie Sinn machen. Ansonsten sind sie eher schädlich.


    Wenn also ein Canonical auf einer Seite

    Code
    https://www.katzeninfo.com/katzengarten?rCH=2

    NICHT als

    Code
    https://www.katzeninfo.com/katzengarten

    ausgegeben wird, sondern plump und falsch als

    Code
    https://www.katzeninfo.com/katzengarten?rCH=2

    sollte man SEO-Tool-Gemecker eher ignorieren als irgendwelche Plugins(?) zu verwenden, nur damit man Canonicals hat ;)


    Vielleicht hast aber auch im SEF-Plugin einen "Website-Domain" eingetragen, was ebenfalls ein Canonical setzt. Das sollte man, wenn überhaupt, nur dann tun, wenn man bei mehreren Domains, die man betreibt, keine Umleitung auf die Wunschdomain per htaccess-Datei hinbekommt.

  • Nur für die, die CookieHint weiter verwenden möchten.


    Ich habe das Problem reDIM ("Ersteller" des Plugins) mitgeteilt, da Sie ja bei einem kostenlosen Plugin über Probleme unterrichtet werden sollten. Und obwohl ich geschrieben habe, dass ich keinen Support für etwas kostenloses wünsche, kam sehr schnell die Lösung:

    In die robots.txt die Zeile

    Disallow: /*?rCH

    einfügen. Tatsächlich erscheint dann die Dateiendung nicht mehr. Habs ausprobiert.

    robots.txt


    Grüße

    PS: Meine robots.txt hatte ich eigentlich gelöscht ... und jetzt wieder eingeführt.

  • Punkt 1: Danke für den Tipp zu CockieHint, werde nun Frieders Lösung umsetzen.


    Zur Canonical: Ich habe den Eintrag über das SEF-Plugin vorgenommen (Hinweis darauf hatte ich hier im Forum gefunden), weil ich 2 Domains habe, die auf denselben Inhalt gehen. Ich hatte bisher eine 301 Umleitung eingerichtet, musste aber leider feststellen, dass je nach Browser und ja nach Aufruf (zB. ohne www und/oder ohne http bzw. https) nicht erfolgreich umgeleitet wurde und dass mir die Google Sarch Console unterschiedliche Ergebnisse für die beiden Domains angab und auch die Inhalte beider Domains in Google gelistet sind. Da ich gern alles auf Katzeninfo.com bündeln wollte und immer wieder überal las, dass man einen Canonical setzen muss, um all das zu verhindern, habe ich den Eintrag über SEF vorgenommen. Schade ich mir damit jetzt wieder selbst? Stehe ich mich besser, wenn ich alle Varianten (mit und ohne www/http/https) einzeln als 301 Umleitung einrichte?


    Viele Grüße

  • Wenn du die Umleitung per .htaccess richtig machst , sollte sich das mit den 2 Domains bei Google von alleine erledigen. Natürlich nicht über Nacht, weil G nicht jedesmal die ganze Seite scannt.


    Weil Google kommt ja dann gar nicht mehr auf die falsche Domain und lernt das schrittweise.


    Gleichzeitige Umleitung auf www und HTTPS geht mit einem 2- bis 3-Zeiler. Nur bei wenigen Providern muss man Zeile 2 variieren.

    Apache Configuration
    Rewritecond %{HTTP_HOST} !^www.example.com$ [NC,OR]
    RewriteCond %{HTTPS} !=on
    RewriteRule ^(.*)$ https://www.example.com/$1 [R=301,L]

    Darf ruhig sehr früh in der .htaccess stehen.

  • Vielen Dank, Re:Later! Habe den Code entsprechend geändert (meiner wich etwas ab).
    Kannst Du mir vielleicht nur noch einmal sagen, was jetzt nachteilig an dem Canonical Eintrag ist?

  • Grundlegend ist gegen Canonicals nichts einzuwenden, aber, sie müssen eben richtig sein und führen, wenn falsch, eher zu noch mehr Verwirrung bei der Suchmaschine. Sinn ist ja, mitzuteilen, dass die gerade angezeigte Seite exakt den selben Inhalt hat wie eine unter einem anderen Link und deshalb die Suchmaschine den aktuellen Link ignorieren soll.


    Außerdem ist ein Canonical so definiert, dass man es nur anzeigt, wenn es eben tatsächlich einen alternativen Master-Link gibt. Da geben die meisten SEO-Tools falsche Infos aus, wenn sie plump reklamieren, dass kein Canonical vorhanden ist. Es muss nicht immer vorhanden sein.


    Wenn ich eine Seite aufrufe, wo mir ein Plugin auf allen Seiten ein Canonical einfügt, das nicht mehr ist als der Link der Seite und nicht in der Lage ist, den evtl. doppelten Master-Link zu finden und den einzusetzen, ist das absolut sinnfrei. Noch dazu, wenn die aktuelle Seite einen vollkommen dämlichen, falschen Link hat.


    Es gibt nur wenige Plugins, die dann, aber auch nur in Teilbereichen, halbwegs Sinn machen, nach meiner Erfahrung aber in anderen Bereichen weitaus mehr Chaos reinjubeln als es nötig wäre, was eben Suchmaschinen weitaus mehr in die Irre leitet als gleich ganz ohne zu arbeiten.


    Nur nebenbei: So ein Plugin muss jeden einzelnen Seitenaufruf prüfen, was Joomla-Performance belastet.


    Der richtige Ansatz ist eigentlich von Anfang an schlechte, doppelte Links zu vermeiden, also saubere Menüs aufbauen und "schmutzige Links" von Anfang an unmöglich zu machen und, wenn dann doch mal welche auftauchen die paar Ausreißer 301-umzuleiten. Ich weiß aber, dass das bei manchen Seiten auch zur Lebensaufgabe werden kann, wenn man jede einzeln umleiten muss.


    Aaaber:

    Grundlegend hattest du schon Recht mit dem Eintrag im SEF-Plugin für 2 unterschiedliche Domains, aber mit oben Gesagtem ist die simple .htaccess-Variante die sauberere.


    Und damit ich nicht zu klugscheißerig klinge: Das sind alles "bittere" Erfahrungen, die ich mit meiner eigenen, ersten Joomla-Firmen-Seite gemacht habe ;)

    Heute habe ich ein eigenes Plugin, das radikal alle Canonicals löscht, egal welche Erweiterung sie mir unterjubeln möchte ;)

  • Der richtige Ansatz ist eigentlich von Anfang an schlechte, doppelte Links zu vermeiden, also saubere Menüs aufbauen und "schmutzige Links" von Anfang an unmöglich zu machen und, wenn dann doch mal welche auftauchen die paar Ausreißer 301-umzuleiten. Ich weiß aber, dass das bei manchen Seiten auch zur Lebensaufgabe werden kann, wenn man jede einzeln umleiten muss.


    Aaaber:

    Grundlegend hattest du schon Recht mit dem Eintrag im SEF-Plugin für 2 unterschiedliche Domains, aber mit oben Gesagtem ist die simple .htaccess-Variante die sauberere.

    Vielen Dank, Re:Later, dass Du Dir die Zeit genommen hast, das so ausführlich zu erklären!

    Diese ?rCH=2 Anhänge, die die doppelten Links ergeben, würde ich ja auch gern unterbinden, habe nur keinen Einfluss darauf. Habe sie nach Frieders Vorschlag per robots.txt ausgeschlossen. Allerdings habe ich dann eine Fehlermeldung von der Google Search Console erhalten, dass ausgeschlossene URLs via Sitemap gesendet wurden. Hatte natürlich nicht dran gedacht, die online erstellte Sitemap auf diese URLs zu überprüfen. Das heißt, nun muss ich jedes Mal, wenn ich neue Inhalte einbaue und die Sitemap neu erstellen lasse anschließend von Hand korrigieren....seufz.

    Lieben Gruß

  • Zumindest früher (war schon lange nicht mehr drinnen) konnte man in der G-Search-Console oder wie's heißt in einer Ecker "URL-Parameter" angeben, welche ignoriert werden sollen.


    Zusätzlich sollte man sich von Google nicht all zu kirre machen lassen. 99% der Emails die ich von denen bekomme (für diverse Seiten) quittiere ich mit einem "SchlimmSchlimmSchlimm" während ich den LöschenKnopf drücke ;)


    Google lebt davon, dass die Welt sie für unfehlbar hält; trotz der vielen Widersprüchlichkeiten im System.

  • Hallo Re:Later,

    sehe ich ähnlich. Google ist weder seriös noch tauglich.


    Jetzt haben wir 2023 und einige scheinen immer noch das problem mit dem "rch" zu haben.

    Hm..


    Wer auch immer das Programmiert (scheinbar die redim gmbh) scheint hier nicht mitzulesen.
    Oder es interssiert "dort" keinen.


    Vorschlag (vielleicht gibt es das hier schon und ich weiß nicht wo [dann bitte sagen]):

    Macht einen Bereich für Plugins und Bewertungen bzw Google und SEO oder anderen "Störungen".
    Dort könnte dann stehen: Cookiehint: Probleme mit dem Thema "rch" bekannt seit Jahr XY. Probleme der Art auch heute noch. Daher kann das Plugin
    an Leute, die etwas auf die Google Warnungen in der GSC geben nicht empfohlen werden.

    Jemand, der dann ein Cookie-Plugin sucht und etwas auf die Warnungen von Google gibt (das darf ja jeder halten wie er will),
    sieht dann sofort: Ohgott, das Plugin nehme ich besser nicht. Und falls redim das sieht, können die sich überlegen ob sie das Plugin dahingehend
    optimieren.

    lg daniel

  • Update:


    Falls es ebenfalls jemand in seiner Search-Console festgestellt hat, scheint etwas bei Cookiehint zu Mutieren. :D Wie es aussieht kann man folgende Befehlszeile in die robots.txt hinzufügen:


    Disallow: /*&rCH=2


    Keine Ahnung warum und weshalb. hmm Daher sieht es bei mir nun folgendermaßen aus:


    Disallow: /*?rCH=2

    Disallow: /*?rCH=-2

    Disallow: /*&rCH=2


    Beste Grüße

    Faro