Google zeigt links der alten HP an

  • Hallo Zusammen,


    gestern Nacht ging die neue Homepage wieder online.
    Es sind nun "noch Reste" der alten Homepage bei google unterwegs.


    es gibt also links, die noch zur alten HP gehören und ins nichts verlaufen. plus es gibt einen link, der dann zwar auf unsere neue Homeseite führt, diese aber nicht "sortiert" anzeigt.
    hier die links damit ihr wisst was ich meine:


    das ist die korrekte Ansicht der homeseite
    https://vizsla-in-not.eu/index.php


    das ist die Ansicht durch den ersten link den google auf unserer Seite anzeigt


    https://vizsla-in-not.eu/index…nt/content/?view=featured



    und diese als beispiel derer die ins leere laufen und den error 404 anzeigen

    https://www.vizsla-in-not.eu/i…in-mit-ihren-spenden.html



    was kann ich tun um diese links mir zunutze zu machen und auf unsere korrekte Homeansicht weiter zu leiten? oder wie verfahren ich hier?


    (ich habe aber keinen zugriff mehr auf die alte Seite!)


    Viele grüße

    Rieke

  • Für die 404 (und nur für diese), kannst du die joomlaeigene Umleitungskomponente und zugehöriges Plugin verwenden.


    Du solltest Seiten auf 404 belassen, für die es kein neueres Pendant gibt!


    Bei funktionierenden Links, kannst diese in die robots.txt eintragen und in der Google SearchConsole eine vorübergehende Entfernung aus dem Index beantragen.

    Das bedeutet zwar nicht, dass Google sie nicht irgendwann noch mal probieren wird, aber durch den Eintrag in robots.txt, sollte dann Ruhe sein (Konjunktiv).


    Oder frühe Umleitung mittels .htaccess. Auch hier: Nur dann, wenn Umleitung sinnvoll ist.

  • hatte gehofft ich kann die umleiten, denn wir sind froh bei google nicht noch weiter nach unten gerutscht zu sein durch unseren Ausfall.


    wenn ich google jetzt sage der funktionierende link soll entfernt werden, erscheint dann satt dessen ein anderer richtiger funktionierender oder ist dann von uns gar nichts mehr da?


    ich werde mal suchen was du mit "bei robots.txt eintragen" meinst. versteht nur Bahnhof thinking

  • Die Bots finden grundsätzlich alles, was an URLs aufrufbar ist. Was davon letztlich in den Suchergebnissen erscheint, hängt im wesentlichen vom Inhalt an. Da hat Google so seine eigene Philosophie. Ist aber ein anderes Thema.

    Wird eine indexierte Seite mehrmals mit einem 404-Fehler aufgerufen, wird sie aus den Suchergebnissen verschwinden.

    Teils wird noch nach Jahren immer mal wieder getestet, ob diese nicht doch noch existiert.


    Eingreifen braucht man da nicht wirklich. Eine Entfernung zu beantragen.... usw. macht man nur in dringenden Fällen, beispielsweise wenn es rechtliche Probleme gibt.


    Ein funktionierender Link wird immer wieder indexiert werden. Wenn du ihn weg haben möchtet, sollte er ein 404 liefern.

    Nutze auch die robots.txt, um den SuMa etwas mitzuteilen. Die seriösen beachten diese.

  • Bis eben (20.30 Uhr) war die neue Seite noch aus techn. Gründen in einem Unterordner. Jetzt ist sie in der URL-Struktur, wie die alte Seite war.

    Wenn ein Relaunch online geht und sich die URL-Struktur geändert hat, ist es immer ratsam eine 301 Weiterleizung von alter URL zur neuen, über die .htaccess zu machen bzw. die Weiterleitungskomponente einzusetzen


    Muss ich denn das jetzt noch berücksichtigen?

    Oder kann es so bleiben ohne .htaccess-Änderungen?


    Indiziert Google die Seite mit den neuen Inhalten in absehbarer Zeit neu?

  • das wird in der Datei .htaccess gemacht, nicht in der robots.txt.

    Die umzuleitende Url des TE enthält einen Query-String. Somit wird die von dir gepostete htaccess-Umleitung so nicht funktionieren.


    Deshalb mein einführender Hinweis auf die robots.txt, wo ein zusätzlicher Eintrag

    Code
    1. Disallow: /index.php/component/content/

    reichen sollte. Weil viel einfacher. EDIT: Zu erklären ;-)


    Die zusätzliche Entfernung via Google SearchConsole empfiehlt sich in diesem Fall, weil Google gelegentlich bescheuert genug ist, den Link zu behalten und anzuzeigen, aber mit einem Hinweis zu versehen, dass "Inhalte durch robots.txt gesperrt sind.".

    Eine wirkliche Logik ist da aber nicht nachzuvollziehen.

  • wenn ich google jetzt sage der funktionierende link soll entfernt werden, erscheint dann satt dessen ein anderer richtiger funktionierender oder ist dann von uns gar nichts mehr da?

    Du darfst dich darauf verlassen, dass ich dann solche Tipps nicht geben würde.


    Du entfernst eine einzelne unerwünschte URL nicht euer gesamtes Ranking. Die richtige Startseite findet Google sowieso.

    Ein "netter Nebeneffekt" ist nebenbei, dass sich das Ranking der Startseite nicht auf 2 erriechbare URLs verteilt.


    Hier die einzusetzende Umleitung für die Startseite:

    Code
    1. RewriteCond %{REQUEST_URI} ^\/index\.php\/component\/content\/?
    2. RewriteCond %{QUERY_STRING} ^view=featured$
    3. RewriteRule .* /? [R=301,L]
  • Schau dir den ersten Post an, was TE auf die Startseite umleiten will und dann schau meinen Post an und probier rum, dann verstehst schon ;-)

    REQUEST_URI ist in diesem Fall bis vor das Fragezeichen.

    Nach Fragezeichen ist der QUERY_STRING.


    Rewrite behandelt das als unterschiedliche Teile. Also muss man leider so einen 3-Zeiler basteln.

    "Wenn Request_Uri exakt /index.php/component/content/"

    UND

    "Query_String exakt view=featured"

    DANN

    "Leite auf die Startseite / um und vererbe dabei den Querystring nicht ans Ziel."


    Das Fragezeichen in meiner dritten Zeile dient dazu, dass die Umleitung den Query_String nicht vererbt bekommt.

    Sonst würde sie auf /?view=featured landen statt nur /.

  • ich bekomme es nicht hin :(


    RewriteEngine On

    RewriteCond %{REQUEST_URI} ^https://vizsla-in-not.eu/index.php/component/content/?

    RewriteCond %{QUERY_STRING} ^view=featured$

    RewriteRule .* /?https://www.vizsla-in-not.eu



    ich hab es auch so versucht:


    RewriteEngine On

    RewriteCond %{REQUEST_URI} ^/index.php/component/content/?

    RewriteCond %{QUERY_STRING} ^view=featured$

    RewriteRule .* /?https://www.vizsla-in-not.eu


    das alles in robots.txt


    geht aber nicht


    das:

    https://vizsla-in-not.eu/index…nt/content/?view=featured


    ist die seite die mir con google vorgeschlagen und so unvorteilhaft angezeigt wird, da möchte ich gerne auf diese umgeleitet werden:


    https://vizsla-in-not.eu

  • # bedeutet, dass es sich bei der Zeile um einen Kommentar handelt. Somit ist es dann keine Serveranweisung. Also ohne # schreiben!

    In der dritten Zeile müsste ein Leerzeichen dazwischen. Und eventuell statt . einfach mal \. schreiben. Ähnliches für den /

    Ist zwar meist nicht nötig. Aber schau trotzdem noch mal in Post 10.

    Und das http://deinedomain.... lass mal weg - > siehe Post 10.