Beiträge von skodi

    Ich überlege, wenn man die älteren Blog-Artikel (die nicht seo-freundlich sind) aus den suchmaschinen-relevanten Seiten rausnehmen könnte (wie macht man das dann?), ob sich dann nicht die Sichtbarkeit verbessern würde.

    Servus Rabea74,
    technisch gesehen hat man zwei Möglichkeiten:
    1. Artikel löschen, das ergibt dann einen 404-Fehler, und Google nimmt die Seiten dann irgendwann aus dem Index.

    2. Artikel auf "noindex follow" setzen (geht in den Artikeleinstellungen, Google bekommt das Signal nicht indexieren und nimmt die Seiten irgendwann dann auch aus dem index). Vorteil dieser Variante - die Artikel können online bleiben.

    Neben dem technischen Aspekt gibts den aus SEO-Sicht und da schlagen zwei Herzen in meiner Brust.

    A) Ja, es kann manchmal sehr hilfreich sein keine inhaltlich schwachen Artikel zu präsentieren und das Konzept weniger aber besser zu verfolgen. So um 2021 rum war das einer der größten SEO-Trends, Seiten aus dem Index zu entfernen und dann die "Kraft" auf weniger Seiten zu verteilen.

    B) Wenn alte Artikel von extern Links oder gar regelmäßige Besucher bekommen, wäre es ein grober SEO-Fehler diese ersatzlos zu entfernen oder auf noindex zu stellen. Nur weil etwas alt ist, muss es ja nicht zwingend unrelevant sein. Das muss man vorher prüfen z.B. über die Search Console oder Logfile-Analysen.

    Man muss das ganze Thema aber auch richtig gewichten und einordnen: Das ist einer von vielleicht 30 oder 40 Bausteinen - der alleine bringt kaum etwas. Es gibt in mindestens 90% der Fälle die mir so im Alltag begegnen viel viel grundlegendere Sachen an denen es im Bezug auf SEO massiv scheitert.
    Meistens bringt es viel mehr, sich erstmal auf das Offensichtliche und die absoluten Basics zu konzentrieren anstatt sich in ganz speziellen Themen zu verzetteln.

    Insgesamt sind meine Erfahrungen mit "Kostenlos für gemeinnützige Organisationen" ziemlich unterirdisch - ich hatte bereits ein paar Vereine als Kunden die bei Bürgernetz-Vereinen o.ä. gehostet waren und es war immer ein Zirkus. Die Kunden hatten selber häufig keinen Zugriff auf eine Verwaltungsoberfläche und alles musste per Mail angefragt werden. Der Support war dann 1x wöchentlich ein Ehrenamtlicher, der von 18.00 - 20.00 Uhr Mails beantwortet hat. Ich erinnere mich dass einmal auf die Bitte eine Datenbank anzulegen, mit der Frage geantwortet wurde wie die Datenbank heißen soll - meine Antwort darauf wurde dann natürlich erst wieder 1 Woche später gelesen und beantwortet. :D
    Die PHP-Einstellungen konnten nicht geändert werden usw.
    Das war für jemanden der halbwegs professionell Webseiten betreut echt ultra nervig.

    Aber zurück zum Thema:
    Auf mich macht dieses Angebot einen zumindest ungewöhnlichen Eindruck. Die Gründe dafür:

    1. Der Umfang des Angebots ist mir nicht ganz klar - wie verhält es sich z.B. mit Domains sind die ebenfalls kostenfrei oder werden sie kostenpflichtig angeboten?
    2. Die handelnden Person(en) und ihre Motivation wird für mich nicht so ganz deutlich - und ein mit Postflex anonymisiertes Impressum trägt zumindest nicht zur Transparenz bei.
    3. Es gibt scheinbar keine Rezensionen bzw. Referenzen


    Aber ich will auch nicht vorverurteilen - vielleicht bietet hier wirklich jemand sehr selbstlos gut gemeinte Hilfestellung an und war nur nicht so ganz glücklich in der Kommunikation.

    Wir hatten in der JUG-Online schon öfter Sessions zum Thema SEO, neben Grundlagen auch Workshops wo wir live in der Session eine Seite gebaut und gerankt haben usw. Da könnte man extrem viel mitnehmen - kostenlos und ohne Einstiegshürden.

    Wenn Interesse besteht, kann ich dazu gerne mal wieder eine Session halten.

    Tatsächlich ist es aber aktuell auch so, dass SEO quasi ziemlich out ist, weil sich alle auf GEO (Optimierung für LLMs als ChatGPT, Gemini usw.) stürzen. Ich glaube, dass das in naher Zukunft ein sehr großes Thema wird.

    Zu 1.:
    Die Gretchenfrage ;) . Zunächst solltest du dir mal das Prinzip überlegen nach dem du vorgehen möchtest: Wer soll der Vertragspartner deiner Kunden beim Thema Hosting sein? Du oder ein Hostinganbieter? Wer soll dran verdienen?
    Ich habe das vor 20 Jahren nicht ganz überblickt und hoste eine handvoll Kunden selber, der Rest ist quer verteilt auf alle möglichen und unmöglichen Hoster. So ein Wildwuchs ist eigentlich die schlechteste Lösung - so würde ich es nicht nochmal machen. Entweder alle Kunden extern hosten oder von Anfang an auf ein Agentur- oder Resellerhosting setzen. Es gibt mittlerweile einige Hoster die den Geschäftsvorfall der "Webdesigner" verstanden haben und entsprechende Lösungen anbieten. Als Vorreiter in diesem Agenturhosting ist sicher Mittwald zu nennen, aber auch andere wie allinkl etc. bieten Lösungen an. Schau dir ggf. die verschiedenen Geschäftsmodelle an und entscheide dich dann für eins. Ein Problem bei den Hostern ist, dass Empfehlungen manchmal schlecht altern - d.h. irgendein Hoster ist toll, der Laden wir verkauft, und entwickelt sich dann zum Problem.

    Zu 2.: Wahrscheinlich musst du erstmal 5 nehmen, weil nicht alle Erweiterungen die du evtl. brauchst auch sofort mit Veröffentlichung der 6 zur Verfügung stehen. Das ist aber nicht so wild - die Upgradeprozesse wurden immer besser. Von 4 auf 5 geht das relativ problemlos. Hilfreich ist es übrigens auch, wenn man sich einmal ein Grundsystem zusammenstellt mit dem man arbeitet und damit eine möglichst gleiche Infrastruktur für jedes Projekt hat. D.h. man nimmt nicht für jedes Projekt verschiedenste neue Erweiterungen sondern stellt sich halt einmal einen Werkzeugkoffer zusammen mit den man alles an Standard-Funktionalität abdeckt und setzt dann wirklich nur für ganz spezielle Zwecke mal zusätzliche Erweiterungen ein. Das lernt man spätestens beim nächsten großen Update zu schätzen.


    Zur Eingangsfrage: Neu machen, das dauert nur unwesentlich länger und du hast wieder ein frisches System unter der Haube.

    Aus meiner Sicht ist es im Moment relativ wichtig, sich mit dem Thema auseinanderzusetzen.
    Mir persönlich hilft es, verschiedene Meinungen dazu dazu einzufangen und mir auch eigene Gedanken zu machen.

    Meine zwei Lieblingsquellen dazu gebe ich hier gerne weiter:

    1. Podcast

    Der Content Performance Podcast - SEO für Fortgeschrittene
    Ein Tekkie und ein Kreativer sprechen darüber, was in SEO und Online-Marketing läuft – und was nicht. Jeden Montag eine halbe Stunde Podcast.
    www.jaeckert-odaniel.com

    2. Youtube

    Evergreen Media / https://www.youtube.com/@EvergreenMediaAT/videos

    habe seit neuem folgendes Problem, irgendjemand verschickt über meine email adresse spam emails an andere, wenn die Empfänger email nicht existiert bekomme ich eine mail zurück mit: Mail delivery failed: returning message to sender

    Ich würde einfach mal die E-Mail die zurückkommt anschauen, meistens wird ja die ursprünglich gesendete Mail mit zurückgeschickt - da kann man dann evtl. herausfinden wie die ursprüngliche Spam Mail verschickt wurde. Dann weiß man im Idealfall ob tatsächlich über deinen Account verschickt wurde (das wäre ein Problem) - oder ob jemand einfach nur deine Mailadresse als Absender eingetragen hat (Mail Spoofing).

    Für Joomla habe ich da leider auch keine einfache Lösung im Kopf. Grundsätzlich kann bei solchen Automatisierungen Chat-GPT ganz hilfreich sein.
    Ich habe Chat-GPT mal gefüttert - herausgekommen ist ein Skript und ein geplanter Task.
    Die Funktionsweise wäre dann so.


    🚀 Was macht das Skript?

    1️⃣ Es überprüft täglich, ob eine bestimmte Datei noch existiert.
    2️⃣ Wenn die Datei da ist, zählt es mit (1 Tag, 2 Tage, usw.).
    3️⃣ Falls die Datei 2 Tage lang nicht gelöscht wurde, wird eine E-Mail (Notruf) gesendet.
    4️⃣ Wenn die Datei gelöscht wird, setzt das Skript den Zähler auf 0 und erstellt die Datei neu.

    👉 Kurz gesagt:

    • Datei muss jeden Tag gelöscht werden.
    • Falls nicht gelöscht, gibt es nach 2 Tagen einen Notruf per E-Mail.
    • Falls sie doch gelöscht wird, startet der Zähler neu, und die Datei wird wieder automatisch angelegt.

    🕒 Was macht der Task Scheduler?

    Der Task Scheduler (Aufgabenplanung) sorgt dafür, dass das Skript automatisch jeden Tag läuft, ohne dass du es manuell starten musst.



    🔹 Beispiel-Szenario

    • Montag: Die Datei ist da ✅ (Zähler = 1)
    • Dienstag: Datei immer noch da ✅ (Zähler = 2)
    • Mittwoch: Oh nein! Die Datei wurde 2 Tage lang nicht gelöscht → E-Mail wird gesendet! 🚨
    • Donnerstag: Jemand löscht die Datei ❌ → Zähler zurück auf 0, Datei wird neu erstellt.

    🔹 Fazit:
    Dieses Skript und der Task helfen dir, sicherzustellen, dass eine Datei gelöscht wird – sonst gibt es einen automatischen Notruf! 🚨

    Es ist hier bei Google ausführlich dokumentiert:

    Strukturierte Daten für Rezensions-Snippets (Review, AggregateRating) | Google Search Central  |  Dokumentation  |  Google for Developers
    Ein Rezensions-Snippet ist ein kurzer Auszug aus einer Rezension oder Bewertung. In diesem Leitfaden erfährst du mehr über Google-Rezensions-Snippets und…
    developers.google.com

    Wichtigster Punkt:

    Zitat

    Du kannst Bewertungen für die folgenden Inhaltstypen und ‑untertypen angeben:
    - Buch
    - Kurs
    ...
    - Lokales Unternehmen (nur für Websites, auf denen Rezensionen zu anderen lokalen Unternehmen erfasst werden; siehe Richtlinien zu eigennützigen Rezensionen)

    ist auch immer wieder Thema in den Google Hilfe Foren, schau da mal rein.

    Meines Erachtens werden Domains und Subdomains bzgl. SEO gleichbehandelt. Wäre ja auch sonst ein Widerspruch, da das www auch eine Subdomain darstellt.
    Oder hast du da Quellen, die da was anderes sagen? Das würde mich interessieren.

    Ich meinte damit: nicht einzelne Webseiten-Bestandteile in Subdomains auslagern. also blog . domain .de oder shop . domain .de , stattdessen Unterverzeichnisse verwenden.

    Der Semrush-Guide erklärt das ganz verständlich:

    Zitat

    Wenn Inhalte und Links zwischen einer Subdomain und der Hauptdomain aufgeteilt werden, ist die Gesamtautorität dieser beiden Entitäten geringer als sie wäre, wenn sich alles in Unterordnern der Hauptdomain befände.

    Daher gibt es meist einen Aufwärtstrend bei organischer Sichtbarkeit und Traffic, wenn relevante Subdomains in Unterordner der Hauptdomain umziehen.

    Quelle: https://de.semrush.com/blog/subdomain…rverzeichnisse/

    Meine Erfahrung aus 20 Jahren SEO: Die technischen Probleme sind immer die kleinsten.

    Klar, man sollte die gängigen Standards beachten, wie z.B. EINE Version (also mt www oder ohne www), keine Subdomains, seo-freundliche URLs, vernünftiger Menü-Aufbau und den Content entsprechend strukturieren.

    Aber selbst wenn das Seobility Tool überall 100% anzeigt, sind meistens keine wesentlich! besseren Rankings zu erwarten.


    Die eigentlichen Problemstellungen sind andere - und eigentlich immer die gleichen:

    1. Für welche Keywords will ich überhaupt ranken?

    2. Was will Google bei diesem Keyword sehen?

    3. Kann ich objektiv betrachtet Google ein besseres Ergebnis anbieten, als das was aktuell in den Top 10 angezeigt wird?

    4. Falls nein, gibt es eine Möglichkeit trotzdem über Google Traffic zu generieren?


    In deinem Fall wäre mein Ansatzpunkt ganz klar auf Google My Business bzw. Google Maps zu setzen und zu versuchen da ein ordentliches Ranking in den lokalen Suchergebnissen zu erreichen. Interessant sind in diesem Zusammenhang auch Strukturierte Daten für Ferienunterkünfte

    Mein Vorschlag:

    Lösche alles und mach die Seite neu mit Joomla 5.

    Danke für deinen Vorschlag, meine eigene Seite läuft natürlich mit Joomla 5.

    Es geht darum, dass ein relativ weit verbreiteter Malware-Scanner auf Serverbasis Joomla Core Dateien aus der Version 3 moniert - und man bislang noch wenig dazu findet. Der Thread soll Leuten die in den nächsten Tagen eine entsprechende Mail erhalten mal einen kleinen Anhaltspunkt geben was es mit diesem Fund auf sich hat.

    Hallo,

    nachdem mich am WE bereits ein Kollege angeschrieben hatte wg. einer automatisierten Mail die er von seinem Hoster erhalten hat, habe ich es eben selbst mal ausprobiert.

    Der in der Plesk-Umgebung häufig eingesetzte Malware-Scanner "Imunify" markiert aktuell 2 .js Dateien die früher mal im Core dabei waren.

    Hinzugekommen sind sie wohl im Rahmen dieses Issues:

    Da in den nächsten Tagen wohl einige Kollegen danach googeln werden - wie ist die Gefahr die von diesen Dateien ausgeht einzuschätzen?


    Wenn der Hoster wie angegeben Strato ist, dann kann man mal einen Blick in die Strato Statisik werfen:
    Statistiken über die Zugriffe auf Ihre Website | STRATO

    Wenns dir um Suchmaschinen / Google geht, kannst du deine Seite auch in der Google Search Console anmelden - dabei erhältst du quasi Einblick in die Daten die Google über deine Webseite hat, es wird deshalb auf der Seite nicht nachgeladen o.ä. - ist also nicht mit Google Analytics vergleichbar

    Google Search Console

    Bei Seiten die nur wenige Unterseiten haben, würde ich darauf achten dass jeder Inhalt auch einen Menüpunkt hat. Dann wird automatisch auf die richtige URL umgeleitet, und man hat immer schöne, saubere URLs.

    Ein Inhalt der bei der Seite offensichtlich keinen Menüpunkt hatte ist "Aktuelle News"... da kann das herkommen.

    Habe kürzlich für einen Ferienhaus-Vermieter nach entsprechender Software gesucht und mir bei einigen Anbietern von Buchungskalendern usw. dafür Test-Accounts erstellt. Am Ende wurde es dann eine externe Lösung ( https://www.mobile-calendar.com/ ). Sehr einfach zu bedienen, gibt dafür auch ne App. Belegungskalender kann dann als "HTML-Widget" ausgegeben werden und in die Joomla-Seite integriert werden.

    Kunde findet es super, weils wirklich intuitiv ist.
    Für mich ist auch ein Vorteil, dass ich keine Daten von Endkunden im Joomla-System habe...