SEO für Anfänger

  • wie im Titel erkennbar möchte ich etwas über die SEO Einstellungen erfahren. Ich hoffe es stört keinen wenn ich hier nacheinander ein paar Problem abhandle. Wenn doch bitte kurz schimpfen.
    1. index follow


    Als Anfänger habe ich mich schon mal qualifiziert in dem das von Installation an, während meiner Bastelphase, angeschalten war. Nun, live gestellt.... erst mitbekommen.
    Was muss jetzt tun um von google neu oder richtig indexiert zu werden? Habe zwar etwas über tools gelesen aber brauche ich das überhaupt. Inzwischen habe ich auch Url-Rewrite an, die Urls allgemein und z.B. so etwas wie Sprachendung www.meineseite.de\de bereinigt. Einfach nur warten?


    Danke, schon mal.

  • Was muss jetzt tun um von google neu oder richtig indexiert zu werden?


    Google nimmt da keine Rücksicht mehr. Man kann zwar URLs in der SearchKonsole "entfernen", in Wirklichkeit nur für einen undefinierten Zeitraum ausblenden, aber Google ist Sch... genug, sie auch nach sehr sehr sehr langer Zeit erneut zu versuchen, egal, ob sie ins Tote laufen oder nicht.


    Funktioniert die URL weiterhin, was z.B. bei denen mit index.php in der URL der Fall ist, bleibt sie auch im Index, was nicht unbedingt bedeutet, dass sie für Suchende angezeigt wird. Trotzdem kann es sein, dass Google sie trotzdem bevorzugt.


    Dir bleibt also nur, was du an altem Kram unter Google-Suche mit Suchwort

    Zitat

    site:example.org


    (example.org natürliche deine Domain)
    findest,
    1) per 301 umzuleiten (.htaccess)
    2) per robots.txt zu sperren
    3) eine Fehlerseite 404 zu provozieren bsw. per Plugin


    und diese Recherche regelmäßig wiederholst, um nachzuarbeiten.


    2) und 3) kannst du dann mit "URL entfernen" in der SearchKonsole erst mal ausblenden. In Sparte "Nicht gefunden" tauchen sie aber u.U. immer wieder auf, was das Abarbeiten dieser Liste extrem lästig macht.


    Dinge, die du mit robots.txt blockierst, halten Google auch nicht unbedingt davon ab, den Link nicht mehr anzuzeigen. Zwar kein Auszug aus dem Inhalt mehr, aber dafür ein Text "Die robots-Einstellungen verhindern...".


    Bei 1) musst nichts machen. Das egibt dann die Zeit... Hauptsache die Nutzer kommen richtig raus.


    Vergiss bei diesen Aktionen nicht, dass Google teils wahnsinnig träge reagiert. In bestimmten Ansichten der SearchKonsole dauert es 3 Monate bevor du Erfolge siehst, bspw. in den "Blockierten Ressourcen", eben, weil, wie oben gesagt, Google meint, sich mit längst komplett entferntem Kram beschäftigen zu müssen, also auch gelöschten Seiten oder gelöschten Templates und CSS darin. So Kram....


    Der Begriff "Krake Google" ist aktueller denn je.


    EDIT: Keine Ahnung, ob Sitemap irgendeinen Einfluss auf Obiges hat. Trotzdem reiche ich bei so Seiten zusätzlich eine ein, bei der ich sicher bin, dass nur saubere URLs drinnen stehen. Weiß der Teufel...

  • ....ach du dickes Eis! Erstmal Danke. Ich glaube nicht dass ich die Liste über site:meinewebseite.org abarbeiten kann, einfach weil es ja faktisch alles betrifft. und mich an robots... wohl noch nicht rantraue. Dachte eigentlich google indexiert eine seite regelmäßig um Aktualisierungen u.s.w. aufzunehmen und löscht damit geänderte o. nicht vorhandene Urls. Bei mir fängt es ja schon mit der startseite an, wo ich heute erst das 2. /de rausbekommen habe. (Alt: www.meineseite.de/de)
    Werde mal das mit dem über die Google Search Console anmelden testen. Aber lt. ghsvs ja auch nicht so das Wahre.


    Moment nochmal durchgelesen,:
    "Dir bleibt also nur, was du an altem Kram unter Google-Suche mit Suchwort
    site:example.org
    (example.org natürliche deine Domain)
    findest,
    1) per 301 umzuleiten (.htaccess)
    2) per robots.txt zu sperren
    3) eine Fehlerseite 404 zu provozieren bsw. per Plugin"


    Aber eigentlich findet doch eh niemand den alten Kram, den finde ja selbst nicht mehr, es taucht ja weder alter noch neuer Kram bei nach google-Suche auf.
    So funktioniert die Seite ja.


    Danke Euch erstmal!

  • ....funktionieren tut sie ja. Bloß keine Ahnung ob sie falsch oder überhaupt indiziert wurde. index following war wie gesagt immer an.
    Habe mich wie von dirk empfohlen auf der GSE angemeldet..... da war bis jetzt noch nichts da..... vielleicht erstmal warten.

  • Die URLs, die es jetzt gibt, werden von den Suchmaschinen auch gefunden. In aller Regel finden die mehr, als einem Recht ist. Ganz selten, dass mal eine nicht gefunden wird, weil sie nirgends verlinkt ist. In diesem äußerst seltenen Fall würde eine Sitemap im Joomla-Root weiterhelfen, ansonsten ist sie überflüssig.


    URLs, die jetzt ein 404 zurückgeben, werden nach mehrmaligem nicht erfolgreichem Aufruf automatisch aus dem Index gelöscht. Möglicherweise werden sie aber dennoch Jahre lang weiter gecrawlt und getestet, was man aber nicht ändern kann.


    Du solltest also einfach mal abwarten und in 1 bis 2 Monaten die indexierten Seiten überprüfen, um dann eventuell tätig zu werden.


    Die robots.txt solltest du aber optimieren (wenn nötig). Die seriösen Suchmaschinen halten sich nämlich an deren Vorgaben.

  • robots.txt..... wusste nicht, dass man die selbst ändern kann/soll. Gibt es da Anleitungen.
    Ist sie einzig da um bestimmten robots/Crawlern bestimmte Bereiche meiner seite zu verbieten?
    1-2 Monate, okay..... ob der index startet weiß ich vorher also gar nicht?


    Besten Dank erstmal, echt Klasse hier!

  • robots.txt..... wusste nicht, dass man die selbst ändern kann/soll. Gibt es da Anleitungen.
    Ist sie einzig da um bestimmten robots/Crawlern bestimmte Bereiche meiner seite zu verbieten?
    1-2 Monate, okay..... ob der index startet weiß ich vorher also gar nicht?


    Besten Dank erstmal, echt Klasse hier!


    Kann auch sein, dass deine Seite bereits nach 1 Woche komplett indexiert ist. Kommt auch ein wenig auf die Anzahl der URLs an. Hat eine Webseite 20.000 URLs, dann dauert es ein paar Wochen. Hat sie nur 5 Seiten, dann geht es eben schneller. Du kannst jeden Tag mal nachschauen, wenn du möchtest.
    Es lässt sich auch die Löschung bestimmter URLs bei Google beantragen, wenn es schnell gehen muss.


    Die Grundeinstellung der robots.txt ist schon ganz gut. Nutzt man Erweiterungen, die in den Verzeichnissen mit "disallow" liegen, dann kann es sein, dass z.B. Google "meckert", dass nicht auf alle Resourcen zugegriffen werden kann. In diesem Fall würde man z.B. nach dem "disallow" noch ein "allow" für das Unterverzeichnis setzen, in welchem sich diese Resource befindet. Es gibt zahlreiche Seiten, die da Infos liefern. Würde ich mich aber erst drum kümmern, wenn etwas kritisiert wird.

  • Mal allgemein zur robots.txt, mir ist noch nicht ganz klar was ich da optimieren könnte. Ich hatte gegoogelt der einzig sinnvolle befehl ist disallow. habt ihr mal ein praxis-beispiel welche seite, unterseite man den nicht indexieren sollte? Die indexierung meiner seite ist anscheinend angelaufen, es zeigt in der console zwar nichts an aber in der suche findet sich bereits das ein und andere.

  • Mal ein paar Infos:
    Mit einer robots.txt kann man den bots der Suchmaschinen mitteilen, welche Suchmaschinen & Co. eine Seite nicht indexieren sollen.
    Seriöse Suchmaschinen halten sich auch daran. Alle anderen könnte man mittels .htaccess aussperren, wenn man wollte.


    Dann kann man sowohl Verzeichnisse aber auch bestimmte URLs (z.B. Impressum... oder was auch immer), mit "disallow" versehen, die man nicht indexiert haben möchte. Die Gründe sind da individuell.


    Und man kann den Pfad zu einer Sitemap angeben, sofern man eine verwendet.


    Wie gesagt, die Standard-Datei ist da schon sehr gut. Manchmal muss kann oder muss man noch Ausnahmen definieren. Ist aber auch individuell.
    Eine Zeit lang hatte das Verzeichnis "images" ein "disallow". Das wurde von den Suchmaschinen irgendwann beanstandet, da hier doch ziemlich viel Inhalt zu finden ist (z.B. Bilder, Videos, ....). Mittlerweile ist das Verzeichnis "images" nicht mehr in der robots.txt enthalten.


    Mal ein Beispiel:


  • Besten Dank für das Beispiel. Da habe ich mal was zum "Anfassen". Werde mich mal mit unseriösen Suchmaschinen beschäftigen.... sicher gibt es da auch irgendwelche Listen.
    Zum Stand meiner Indexierung. Gestartet vor 4 Tagen noch keine statistiken aber heute kommen die ersten Daten zum crawlen rein.
    In Googlesuche taucht die Seite nach ein paar Schlagwörtern aber ziemlich durcheinander auf.
    Metabeschreibung und Schlüsselwörter scheinen keine Auswirkungen zu haben.
    Ist das richtig: Metabeschreibung > Wörter durch Leerzeichen getrennt
    Meta-Schlüsselwörter> Wörter durch komma getrennt
    Mir ist der Unterschied noch nicht klar, so habe bei beiden das gleiche drinstehen
    und was bedeutet bei Schlüsselwort "ganzer Ausdruck" mit einfachen Anführungszeichen


    1.Crawlingdaten:
    -Eine fehlerhafte Url
    -keine crawlingfehler
    -standard joomla robots.txt erkannt
    hinweis sitemap zu erstellen.
    Das hatte inzwischen auch in Auge gefasst um selbst eine Übersicht über die eigene Seite zu bekommen.
    Da das über Extensions geht (Hat jemand eine Empfehlung?), nehme an, das diese die Sitemap automatisiert und im xml erstellt?


    danke, mala.

  • Ja, Keywords werden durch Kommata getrennt. Allerdings, so glaube ich, werden Meta-Keywords von den Suchmaschinen nicht mehr beachtet. Diese werden aus dem Seiteninhalt erstellt.
    Die Beschreibung wird einfach reingeschrieben, also normale Sätze mit Satzzeichen möglich. Nicht zu viel und nicht zu wenig. Werden nicht 150 Zeichen als optimal angesehen? Kannst ja noch mal googeln!
    Eine Sitemap ist nur nötig, wenn nicht alle URLs irgendwo auf den Seiten gefunden werden können oder es sich um sehr komplexe Seiten handelt.
    Sitemap-Generator erzeugt solch eine sitemap.xml - Datei. Gibt noch einige andere. Aber wie gesagt, dass würde ich mir nur in besonderen Fällen antun.

  • Hallo JoomlaWunder,
    das ging ja wieder fix. Sitemap - Da hast du wohl recht, werde erstmal die vollständige Indexierung abwarten. Am Ende ist die ganze Arbeit nicht nötig. Ist es erlaubt den Seitenlink einzustellen (Forenregeln?), vielleicht fällt ja noch was auf. Bis jetzt ist noch unentdeckt im Netz. Wie`n Korken im Ozean. Den einen Zugriff könnte über die Console dann sofort zuordnen, der erhöht meine Seitenzugriffe und ich steige wie ne Rakete im Ranking. ;)


    Auf jeden Fall - Besten Dank für die reichliche Hilfe euch allen!

  • Ein Seitenlink ist nicht verboten, in Fällen von optischen Problemen sogar nötig. Missbrauch (Werbung, ... usw.) wird nicht geduldet. Steht aber eh alles auf nofollow....
    Wichtig ist vor allem viel eigener Inhalt. Das sichert dir gute Plätze bei der Indexierung.

  • Index Status : 0 ....noch warten.
    Beispiel zur googelsuche, suche nach "Larissageschichten"
    und finde mich an 2. Stelle: "Larissa - Schon mal Allyren gehabt?" .....schon klasse nur sind das 2 völlig verschiedene Seiten, die nirgendwo so nebeneinander auftauchen hmm
    Wenn META-daten keinen Einfluss mehr haben, sollten also vor allen die urls stimmen, die habe jetzt in ordnung gebracht.
    Die Seite bauen ständig weiter (nun ja man nimmt es sich vor), wenn ich es richtig verstehe brauche indexmäßig nun nichts weiter zu machen als zu warten?
    Die Indexierung natürlich beobachten.
    Ist die SearchConsole = Google Analytics? Sorry, aber dumme Fragen soll es ja nicht geben.
    Hier mal der Link: http://malabin.de