Google behauptet: "noindex" wurde im HTTP-Header "X-Robots-Tag" gefunden. Ich kann das aber nicht nachvollziehen und auch nicht beseitigen.

  • Seit einigen Tagen habe ich exakt das gleiche Problem wie in dem folgenden Thread bereits beschrieben. Auch bei meiner Webseite hat es sich irgendwann (von selbst?) eingestellt:

    Leider kann ich dem Threadverlauf nicht entnehmen, was bei dem TE zur Lösung des Problems geführt hat.


    Die Webseite https://psychodynamisches-institut.de ist sowohl bei Google als auch Bing aus den Suchergebnissen verschwunden (sie war bis vor kurzem aber noch indiziert)!

    Sowohl die .htaccess als auch die robots.txt habe ich testweise komplett deaktiviert. Leider ändert das gar nichts daran, dass Google bereits bei der Haupt-URL immer noch behauptet:

    Indexierung zulässig? => Nein: "noindex" wurde im HTTP-Header "X-Robots-Tag" gefunden.


    Ich kann das einfach nicht nachvollziehen. Im Quelltext dieser Webseite finde ich weder ein "noindex", noch ein "X-Robots-Tag". Die Konfiguration steht explizit auf "index, follow", so dass ich mich frage, woher Google (und Bing) dieses "noindex" eigentlich haben. Eine gründliche Suche in allen Kerndateien und auch in der Datenbank brachte mich ebenfalls nicht weiter.


    Hat jemand hier eine Idee, wie ich es schaffe, dieses für mich nirgendwo sichtbare "noindex" zu entfernen, so dass Google und Bing die Webseite wieder indizieren?

  • Vielleicht das hier (aus: https://freetools.seobility.ne…nstitut.de%2F&crawltype=1)


  • Nutzt du denn eine .htaccess? Dann wäre der Inhalt interessant. Womöglich wurde der Header dort gesetzt. So etwas in dieser Art:

    Code
    Header set X-Robots-Tag "noindex, nofollow"


    Auf der anderen Seite sind die meisten Seiten ja indexiert, was ich so auf die Schnelle erkennen kann, Oder haben sich die indexierten Seiten in letzter Zeit deutlich reduziert?

  • Zwischenzeitlich habe ich den Teufel gefunden: Es war tatsächlich eine .htaccess aber im Root-Verzeichnis, die da natürlich nicht hingehörte. Es war ein Flüchtigkeitsfehler von mir vor einigen Monaten - im Zusammenhang mit einer Nextcloud, die ebenfalls auf diesem Webspace gehostet und von einer speziellen externen Firewall geschützt wird. Bei jedem Update von Nextcloud, muss ich einige Dateien vorübergehend aus dem Unterverzeichnis verschieben (der Einfachheit halber ins Rootverzeichnis), so auch die .htaccess, die ihrerseits hauptsächlich die Firewall schützt, wo natürlich ALLES nicht indexiert werden darf. Da gab es den Eintrag: Header always set X-Robots-Tag "none". Kein Wunder, dass er nicht im Quelltext der Homepage auftauchte.


    Und dann habe ich vergessen, sie nach dem Nextcloud-Update wieder in ihr richtiges Verzeichnis zu schieben. Schlamperei aber auch!

  • Keine Ahnung, aber vielleicht eine Codezeile in der .htaccess?

    Zitat

    Es war tatsächlich eine .htaccess aber im Root-Verzeichnis, die da natürlich nicht hingehörte

    Dann war das ja ein guter Tipp!



    Aber natürlich gehört eine .htaccess in den Root von Joomla.

    Entsprechend dann auch im Backend URL-Rewrite auf Ja stellen.

    Und die Hinweise diesbezüglich im Backend beachten/überprüfen.


    (umbenennen nicht vergessen: htaccess.txt in .htaccess umbenennen).

  • Ja - in den Root des jeweiligen Joomla CMS.


    Aber es gibt dort noch den übergeordneten Root des gesamten Webspaces. Der enthält mehrere unterschiedliche CMS und eine Nextcloud in mehreren Unterverzeichnissen. Und dann ist es fatal, in diesem übergeordneten Root die Anweisung Header always set X-Robots-Tag "none" zu haben, die sich ja dann auf alle CMS bzw. alle Unterverzeichnisse auswirkt.