meine Website rankt nicht mehr – GoogleSearch mit chaotischer, veralteter Indexierung

  • Ab September 2023 schaltete ich meine neue Website Online. Dabei habe ich darauf geachtet, dass zumindest alle wichtigen URLs aus der alten Seite gleich lautend sind oder per Joomla Umleitung auf die passenden neuen Seiten geleitet werden. Zudem hatte ich in 2021 die Sitemap-Extension gewechselt (jetzt OS Map), sodass die bisher für Google gültige sitemap.xml im Rootverzeichnis nicht mehr vorhanden war und gegen die URL der Extension getauscht wurde. In GSC habe ich die alte sitemap.xml gelöscht und die neue eingetragen. Die wurde dann auch als gültig akzeptiert.


    Erwähnenswert ist evtl. noch, dass die jetzige neue Website auf der alten beruht: Ich habe also eine Joomla 3er Site nach 4 migriert und die bisherige Sitestruktur, Inhalte, URLs weitgehend beibehalten. Vielleicht gibt es da noch unerwünschte URL-Reste im System?


    Nachdem mir mein Matomo extremen Besucherrückgang meldete, habe ich mir GSC wieder angeschaut. Das Ergebnis ist so katastrophal und verwirrend, dass ich Lust hätte, zur Korrektur des Ganzen die Website komplett aus der GSC zu löschen und paar Tage später neu anzulegen. Vielleicht ist das auch die einfachste und wirksamste Lösung?


    Meine aktuelle Sitemap beinhaltet 85 Webseiten. GSC bestätigt, es seien 85 Seiten eingereicht worden.


    Es wurden 157 Seiten nicht indexiert und 70 indexiert. – Hä??? Wo kommen diese Seiten her?


    Es sind 56 Seiten als Duplikate nicht indexiert worden. Die dazu aufgelisteten URLs hat es zum Teil nie gegeben! Wie z.B.:

    kleine Witz-Sammlung

    oder

    Lebenslust jetzt! – viel mehr als nur Psychotherapie

    oder

    Psychotherapie Praxis Lebenslust jetzt! – in Wald-Michelbach - Kreis Bergstraße, Überwald, Odenwald


    25 URLs wurden nicht gefunden (404) Auch hier finden sich einige URLs, die es nie gegeben hat.


    35 Seiten wurden gecrawlt aber nicht indexiert Wieder mit einigen URLs, die es nie gegeben hat wie z.B.: https://lebenslust-jetzt.de/in…ntent&view=article&id=107


    32 Seiten wurden gefunden, aber zurzeit nicht indexiert

    Hier finden sich viele der in meiner neuen Website neu angelegten Webseiten – also ausgerechnet die, auf die es mir jetzt ankäme, dass sie gefunden werden!


    Das Crawling scheint auch extrem schleppend zu verlaufen: Google hat bei mir maximal eine Webseite je Tag gecrawlt und je Woche durchschnittlich 2 bis 4 Seiten. Da kann ich ja ewig warten, bis Google die veralteten und auch die unstimmigen URLs aus dem Index raus wirft und sich nach der neuen Sitemap richtet!


    Ist in diesem Fall das komplette Löschen und spätere neue Einstellen der Website bei GSC die beste Lösung? Was meint Ihr?

  • Ich weiss ja nicht, aber


  • Jetzt habe ich das nochmal mit Seobility.net geprüft. Da sieht das Ganze deutlich besser aus als bei GSC. Aber auch dort werden mir vier URLs als 404 gemeldet, die es vor ca. 3 Jahren mal in der alten Website gegeben hat und ganz sicher nicht in der aktuellen Sitemap stehen. Da frage ich mich doch, wie das SEO-Tool diese URLs finden kann!


    Konkret nennt mir Seobility vier URLs, alle mit folgender Struktur

    https://lebenslust-jetzt.de/component/content/article/kurs-sensual-awareness-achtsame-sinnlichkeit?catid=20%3Afortbildung&Itemid=235

    https://lebenslust-jetzt.de/component/content/article/kurs-training-emotionale-kompetenz-und-partnerschaft?catid=20%3Aseminare-vortraege&Itemid=235


    Bevor ich also evtl. wirklich meine Website aus GSC lösche, sollte ich solche Probleme beseitigen, damit ich nicht erneut solch ein schlechtes Crawling bei GSC erhalte.

    Wie finde ich heraus, wo die uralten Seiten noch gespeichert sind? In der Datenbank?

  • Und was hat das nun mit GSC und dem Crawling zu tun? Das miese unstimmige Crawling-Ergebnis wurde in GSC bereits erreicht, lange bevor ich bei Google Unternehmen die Orte im Umkreis zusätzlich angegeben habe und bevor ich die von dir genannten 22 Orte auf meiner Homepage aufgelistet habe.


    Wenn deine Annahme zuträfe, müsste sich ja eine negative Veränderung bei GSC in den zurück liegenden 14 Tagen zeigen.

  • In einer anderen Diskussion zu Fragen zur robots.txt bekam ich den Tipp, die Joomla-Indexierung zu bemühen. Die habe ich noch nie benutzt, weil ich auf meiner Website keine Joomla-Suchfunktion anbiete. Nachdem ich die Joomla-Indexierung habe durchlaufen lassen, fand ich einige der von GoogleSearch reklamierten 404-Seiten.

    Daraufhin habe ich den Joomla-Index gelöscht und erneut durchlaufen gelassen. Und siehe da, die ollen URLs sind nun verschwunden. Ich weiß zwar nicht, wo die her gekommen sind / wann diese angelegt wurden. Aber irgendwie muss GoogleSearch diese URLs gefunden haben.


    Seobility hatte diese URLs jedenfalls bei keinem Website-Scan gefunden.


    Stef Noch schlechter als jetzt kann mich GoogleSearch ja nicht referenzieren! vain


    Auf jeden Fall komme ich aktuell mit kleinen Schritten weiter. Und wenn ich genug optimiert habe, dann lösche ich meine Website bei GoogleSearch, warte paar Tage und trage sie erneut ein in der Erwartung / Hoffnung, dass GSC dann komplett neu crawlen wird.


    Google ist auf jeden Fall extrem langsam! Mein doppelt angelegter Eintrag bei Google Unternehmen ist beispielhaft dafür: Die Änderungen an dem "guten" Unternehmenseintrag wurden nach ca. 10 Tagen ausgeführt. Die Löschung des störenden doppelten Eintrags steht dagegen immer noch aus.


    Schade, dass ich hier bis jetzt nicht noch paar Tipps bekommen habe. Ich setze das dennoch auf "gelöst", weil ich mich jetzt zur Löschung der Website bei GSC entschieden habe.

  • Google ist auf jeden Fall extrem langsam!

    Dahinter steckt aber auch eine gewisse Notwendigkeit. Nur, weil eine Seite temporär nicht erreichbar ist oder gerade bei einem Scan jemand rumkonfiguriert, sollte die Seite nicht sofort verschwinden. Auch Wochen Wartezeit sind nicht immer unüblich, weil Google ja meist auch nicht bei jedem Besuch die gesamte Seite scannt, auch wegen Last auf der Seite.


    Von heute auf morgen Ergebnisse zu sehen ist Zufall oder bei Seiten mit einer gewissen "Prominenz" der Fall. Hilft nur eine gewisse Gelassenheit.


    Du hast aber die Option in SearchConsole mühsam(!!!) sicher zu stellen, dass Suchenden noch angezeigte 404-Seiten erst mal in der Suche, und nur die ist ja relevant (was finden Suchende), für einige Zeit in der SUche garantiert nicht erscheinen. Das bedeutet aber nicht, dass Google sie nicht weiterhin im Index behält, den du in der Console sehen kannst. So kann es passieren, dass auch nach Jahren noch Hinweise in der Console auftauchen (oder sogar überraschend wieder), aber nach so einer forcierten Entfernung, wird Google die Seite irgendwann erneut probieren. Liefert sie ein 404 oder robots-Verbot oder ... werden Suchende sie nicht mehr angezeigt bekommen.


    Kurz: Was Google mal hat, gibt Google auch nicht mehr her ;) SOweit ich das kenne(????): Wenn du die Seite entfernst und neu indexieren lässt, geht halt alles Ranking verloren, was du vielleicht schon gesammelt hattest. Auch dann brauchst du wieder etwas Geduld.


    Wobei eine neue Seite auch erst mal besser rankt als erwartet. Lässt man sie dann vor sich rumdümpeln, rutscht die meist auch automatisch wieder runter. Das ist die Augenwischerei mit der einige SEO-DIenstleister gerne mal arbeiten.

  • Danke dir! Mein Ranking ist aktuell sowieso im Axxxx und das kann eigentlich nicht schlimmer werden. Also glaube ich daran, dass das Löschen und neu einstellen mehr Gewinn bringt, als auf ein allmähliches Neu-Indexieren von GSC zu warten.


    Zudem sehe ich ja ein, dass ich noch viel OnPage-SEO betreiben muss, ehe ich den Schritt gehe. Denn sonst habe ich womöglich schon kurz danach wieder ein ähnliches Schlamassel wie jetzt. vain

  • SniperSister Oh Schock!!! – Und was mache ich statt dessen jetzt? Bei dem extrem langsamen Crawl-Tempo (siehe oben) wird meine Site dann erst im Herbst 2024 wieder halbwegs ranken!


    Schau mal die GSC-Problematik an, die ich oben eingangs beschrieben habe:

    • Meine aktuelle Sitemap beinhaltet 85 Webseiten. GSC bestätigt, es seien 85 Seiten eingereicht worden.
    • Es wurden 157 Seiten nicht indexiert und 70 indexiert. – Hä??? Wo kommen diese Seiten her?
    • Es sind 56 Seiten als Duplikate nicht indexiert worden. Die dazu aufgelisteten URLs hat es zum Teil nie gegeben!
    • 25 URLs wurden nicht gefunden (404) Auch hier finden sich einige URLs, die es nie gegeben hat.
    • 35 Seiten wurden gecrawlt aber nicht indexiert Wieder mit einigen URLs, die es nie gegeben hat
    • 32 Seiten wurden gefunden, aber zurzeit nicht indexiert Hier finden sich viele der in meiner neuen Website neu angelegten Webseiten – also ausgerechnet die, auf die es mir jetzt ankäme, dass sie gefunden werden!

    Kein Wunder, dass GSC angesichts dieser Ergebnisse meine Website nicht rankt… schlechte User-Experience, wenn der Status der Website wirklich so wäre, wie GSC es glaubt erkannt zu haben.


    Ich bin auf das Marketing über die Website existenziell angewiesen! Andere Kommunikationskanäle stehen mir hier am Ort nicht zur Verfügung. Mittels Seobility.net habe ich schon viel optimieren können. Hab dort noch 59 Tage Laufzeit, also bis 24. Januar 2024. Seobility meldet mir, dass betr. der URLs inzwischen alles OK ist. Nur die weitere OnPage-Optimierung muss ich noch voran treiben.


    Wie bekomme ich den alten Mist dort möglichst schnell raus?

  • Moin Clemens,


    ich hänge mich hier mal als Hobby SEO-Loge mit rein.


    Was Google betrifft, Google frisst ALLES! Ab dem Tag, wo Du deine URL online stellst, frisst Google alles was hinter dieser angehängt wird. Ob Du das möchtest oder nicht. Egal mit welchem Tool Du deine Seite analysierst, ob Du Sitemap's löscht und wieder einstellst, oder diese umbenennst, all das ist Schlangenöl.


    Es wird keine zwei Wochen dauern und deine nicht gewünschten URL's, egal wie sie generiert wurden, sind wieder da und werden natürlich auch dein Ranking beeinflussen.

    Du hast jedoch die Möglichkeit mit einer "robots.txt" einiges zu richten. Jedoch gilt auch hier, Google verzeit über Jahre hinweg keine Fehler welche davor gemacht wurden.


    Ich persönlich rate auch von diversen SEO-Tools ab, welche schlimmstenfalls nicht gewollte URL's auf gewünschte aktuelle umleiten. Hier ist das Desaster lediglich nach hinten verschoben.


    Joomla selbst bringt meiner Meinung nach alles mit, um saubere URL's zu schreiben. Hier ist es nun ganz wichtig, sich genauestens mit den SEO-Einstellungen in der Konfiguration zu beschäftigen, bevor man seine Seite online stellt.

    Nun braucht man noch eine vernünftige Sitemap-Komponente mit welcher man seine Sitemap's in die GSC einreicht.


    Ab dann heißt es warten, warten, warten und nochmals warten. Mehr kannst Du zumal Google selbst in geweissen abständen seine Algorithmen ändert, nicht machen.


    Beste Grüße

    der Faro

  • Danke für deinen Hinweis, die unerwünschten Google-URLs NICHT in Joomla oder per htaccess zu redirecten mit 301. Das wäre jetzt noch meine Idee dazu gewesen.

    Bei Seobility.net habe ich solch eine Empfehlung bisher nicht gefunden. Allerdings können die ja auch nicht wissen, wie es für meine Website bei GSC aussieht.


    Im Ergebnis dieser Diskussion heißt das aber auch:

    Wenn man selber bei der Website Fehler gemacht hat oder wenn Google glaubt, etwas korrekt gecrawlt zu haben, kannst du dein kleines Unternehmen gleich wieder schließen oder evtl. bis zur Pleite kämpfen und hoffen.


    Da wäre es sogar eine Überlegung wert, den Laden umzubenennen und eine neue Domain anzulegen, auf der dann die aktuelle Website präsentiert wird. Dann wäre wohl sogar auch Google aufgrund eigener Automatismen gezwungen, neu und dann richtig zu crawlen.

  • Da wäre es sogar eine Überlegung wert, den Laden umzubenennen und eine neue Domain anzulegen, auf der dann die aktuelle Website präsentiert wird. Dann wäre wohl sogar auch Google aufgrund eigener Automatismen gezwungen, neu und dann richtig zu crawlen.

    Natürlich wäre das eine Möglichkeit, jedoch mus man nicht gleich so einen Hammer schwingen. Wie ich schon sagte, Saubere URL's konfigurieren und gewisse einstellungen in der "robots.txt" vornehmen. Glaube mir, die Zeit wird es richten.

  • faro Jetzt muss ich doch noch mal auf die Umleitungen zu sprechen kommen:


    Ich habe mir gerade meine Umleitungen in Joomla angeschaut. Da war unbeabsichtigt aktiviert "URLs sammeln". Dadurch haben sich in der relativ kurzen Zeit von ca. 3 Wochen über 2.740 URLs gesammelt. Die meisten waren Schrott, weil z.B. Script-Kiddies irgend etwas mit Wordpress usw. versucht haben, einzugeben.

    Aber erschreckend war für mich, dass auch ur-uralte URLs aus dem Jahr 2013 noch darin gestanden sind!

    Und sehr viele von denen, die GSV aufgelistet hatte!


    Entweder hat Google die jetzt gerade gecrawlt oder? – Ich fühle mich schon verführt dazu, die jetzt nach einer großen Säuberungsaktion übrig gebliebenen ca. 170 Uralt-URLs doch auf Umleitung zu legen. Welche negativen Folgen könnte das für mich bzw. GSC und das Ranking konkret haben?

  • Hallo Clemens,


    wie schon gesagt, von Umleitungen halte ich gar nichts. Da werden die Probleme nur nach hinten verschoben.


    Auch die Umleitungskomponente in Joomla, wusste gar nicht, dass es die unter J4 noch gibt, habe ich eh unter J3 deaktiviert, da ich kein Interesse daran habe, diese URL's zu sammeln.

  • Vielleicht wäre auch ein bisschen mehr Gelassenheit bzgl. des angeblich absolut wichtigem SEO sinnvoll.

    Aus meiner Website:

    Gelassenheit

    Gott gebe mir…

    die Gelassenheit,

    die Dinge hinzunehmen, die ich nicht ändern kann,

    den Mut

    die Dinge zu ändern, die ich ändern kann,

    und die Weisheit,

    das eine vom anderen zu unterscheiden.



    Was anderes bleibt mir eh nicht übrig!

    Ich mach jetzt meine Sescriptions und Keyword-Optimierungen fertig und dann… GELASSENHEIT.


    Und ich werde meine nächste Website fertig stellen. Aber angesichts dieser Erfahrungen mit Google werde ich sicher stellen, dass die während der Entwicklungsarbeiten nicht gecrawlt werden kann. Und erst wenn wirklich alles passt, dann schalte ich die mit einem Schlag online und „werfe sie Google zum Fraße vor”.

  • Aber erschreckend war für mich, dass auch ur-uralte URLs aus dem Jahr 2013 noch darin gestanden sind!

    Es wurde ja bereits erwähnt, Google vergisst nicht. Die uralt-URLs aus der Umleitungskomponente liefern ja aber eine 404-Antwort. Insofern ist doch alles ok.

    Solche URLs wird eine Suchmaschine sicher nicht in seinen Suchergebnissen anzeigen, zumindest nicht, wenn die 404-Antwort schon längere Zeit zurückgegeben wird.

    Bei einer kurzfristig nicht erreichbaren Seite schaut das natürlich anders aus.


    Wenn ich mir meine Daten aus den SERPs mal analysiere, dann schaut dort alles sehr gut aus. Dennoch habe ich in der GSC ähnliche Dinge drinstehen wie bei dir. Die schaue ich hin- und wieder mal an, das war's dann aber auch schon.