Beiträge von frieder

    Die DSL-Geschwindigkeit hat mit Aimy nur soviel zu tun, dass bei einem kompletten Durchlauf und bei meiner DSL-Geschwindigkeit (und den Einstellungen in Aimy?) das Backend 4 Stunden blockiert ist.


    Ich habe die Pro-Version. Ich seh jetzt schon , dass ich da in der Anleitung einiges übersehen habe. Das Einstellen der Crawling-Zeit habe ich noch nicht gefunden. Werde suchen (über google-translate) und das dann vermutlich auch hinbekommen.

    Danke.

    Hallo,

    der von dir genannte Zusatz wird aber nicht von Google, sondern von deiner Website erzeugt. Sonst könnte ich die Unterkategorie ja nicht direkt mit Zusatz aufrufen.


    Die Lösung kenne ich nicht. Aber: Ich habe auf meiner Homepage sehr viele Artikel und Adressen mit ZOO von Yootheme erstellt und veröffentlicht. Einige Artikel/Adressen werden in zwei Unterkategorien veröffentlicht. Als nicht so bewandert in Joomla bin ich erschrocken, als ich in meiner Sitemap den Artikel in der Form

    gefunden habe. Das heißt, von ZOO, wurde der zweiten Veröffentlichung des Artikels der Zusatz „?category_id=896“ angefügt. Vermutlich ist die Frage abwegig, aber wurde die Unterkategorie von dir unter zwei Kategorien eingeordnet? Vermutlich nicht, denn die Unterkategorie müsste sich dann auch ohne Nummer aufrufen lassen.


    NACHTRAG: Bei meinen Joomlabeiträgen ist mir folgendes aufgefallen: Ich habe Artikel nur für die Startseite erstellt. Nach einer gewissen Zeit werden sie von mir archiviert. Schaue ich die Sitemap an, wird diesen archivierten Beiträge plötzlich die Artikel-ID vorangestellt. Also nicht mehr "Artikelbezeichnung" sondern "850-Artikelbezeichnung".

    Hallo,

    Ich habe Aimy Sitemap installiert. Meine ca. 6.000 Seiten gecrawlt und an Google gemeldet. Seiten wurden von Google gecrawlt. Alles o.k.

    Es gibt bei Aimy die Möglichkeit "regelmäßiges Crawling" einzurichten. Wenn ich in der Komponente diesen Reiter aufrufe, kann ich nur die Einstellung

    • "Sitemap schreiben"
      und
    • "Suchmaschinen benachrichtigen"

    vornehmen.

    Ich habe keine Einstellung gefunden, um einen zeitlichen Rhythmus für das regelmäßige Crawling einzustellen. Also habe ich ein paar Seiten neu erfasst und veröffentlicht, in der Hoffnung, dass dadurch das Crawling ausgelöst wird. Ist aber nicht der Fall. Auch kann ich dem knappen Benutzerhandbuch nichts entnehmen. Beherrsche zwar nur deutsch, aber über google-translate kann man ja übersetzen.


    Allerdings bringt mir das "regelm. C." nur etwas, wenn jeweils nur die neu erstellten Seiten automatisch in die sitemap.xml aufgenommen werden. Ist dies nicht der Fall, bringt es mir nichts. Denn das komplette Crawling bedeutet bei mir (Tarif DSL 35.000) ca. 4 Stunden Crawling.


    Danke.

    Hallo,

    mein Problem glaubt mir vermutlich kaum jemand. Trotzdem: Ich habe jetzt weiter probiert und will es hier nur anmerken. Vielleicht erlebt jemand das gleiche mit ZOO.


    Browserdaten jeweils vorher gelöscht.


    1. Ich lösche eine Adresse in ZOO bis auf die ID und den Namen. Spiele die Daten dieser Adresse per Upload (incl. ID) wieder auf, erscheint im Seitenquelltext trotzdem immer noch der alte Description-Text, der eigentlich nirgendwo mehr im ZOO-Datensatz vorhanden ist.
    2. Ich lösche den kompl. Datensatz und spiele die Daten mit und auch ohne ID per upload auf, erscheint der neue Description-Text im Seitenquelltext. Was mich nur überrascht hat: Spiele ich die Daten mit alter ID auf (den kompl. Datensatz habe ich vorher gelöscht), wählt Joomla/Zoo trotzdem eine neue ID.


    Irgendwo müssen die alten Texte in der mySQL vermutlich stehen? Bringt mir aber nichts. Ich werde die nächsten Tage alle Datensätze löschen neu aufspielen.

    Ich denke wie anka schon schreibt:

    >Module >Neu >eigenes Modul

    Text/Link eingeben

    Position auswählen (wenn es dor eine eigene Modulposition gibt)


    Aber ich bin auch eher Anfänger.


    Nachtrag: anka hat gleichzeitig den besseren (äh professioneller) Vorschlag. gebracht.

    Ich versteh es auch nicht. Ich ändere schon an der richtigen Stelle. Im rechten Bild meines Beitrags unter (Meta-)Title und Meta-Beschreibung werden die Daten eingefügt. Wenn ich neue Adressen erfasse, trage ich dort die Meta-Daten ein. Diese erscheinen dann natürlich sofort im Seitenquelltext. So war es auch bei den älteren Datensätzen.

    Die Daten erfasse ich immer zuerst in einer Excel-Tabelle und importiere sie dann in ZOO. Die importierten Meta-Daten erscheinen korrekt in den richtigen Feldern. Auch die aktualisierten Meta-Daten der älteren Datensätze laden beim upload exakt in den richtigen Feldern.

    Wenn ich die Daten, die auch Besucher auf der Homepage sehen, ändere (Strasse, Ort usw., erscheinen diese auch sofort im Frontend. Ändere ich die Meta-Daten, bleiben im Frontend die alten Daten stehen.

    Vielleicht ist es doch ein ZOO-Problem, oder zumindest mein Problem ;( .

    Hallo,

    diese Anfrage habe ich im Forum bei Abakus gestellt, da ich erst von einem Google-Problem ausgegangen bin, da falsche Snippet-Texte angezeigt werden. Leider keine Antwort erhalten. Meine etwas abgewandelte Frage:


    Ich habe in Joomla Adressen veröffentlicht. Jeweils auch mit ausgefüllter Meta-Description . Die Meta-Description wurde auch übernommen. Kontrolle: Seitenquelle.


    Die Meta-Description aller Adressen habe ich vor 9 ca. Monaten geändert, da der erste Text schlecht war. Diese Änderungen werden aber nicht ins Frontend übernommen?? Änderungen am Text dieser „alten“ Artikel selbst werden übernommen.


    Nach diesem Zeitpunkt habe weitere neue Artikel angelegt mit dem von mir jetzt verwendeten Meta-Description-Text. Diese Artikel werden mit der neuen Meta-Description übernommen und im Frontend bzw. in der Seitenquelle angezeigt.


    Konkret: Alles ist über die Komponente ZOO von Yootheme geschehen. Dürfte aber kein eigenständiges ZOO-Problem sein, weil ja die Meta-Description-Texte die jeweils zuerst erfasst wurden auch veröffentlicht wurden. Der einzige Unterschiede zu reinen Joomla-Texten: Die Adressen und Meta-Daten wurden per csv in Zoo hochgeladen. Aber im Backend werden auch für die alten Adressen die neuen Meta-Texte angezeigt.


    Meine Anfrage bei Abakus.


    NACHTRAG: Die Browser-Cache habe ich schon mehrmals gelöscht. Die Meta-Daten im Backend habe ich auch schon per Hand eingegeben, also nicht nur per csv importiert.

    Danke j!-n.

    Ich war gerade einige Zeit weg und bevor ich deinen Beitrag gelesen habe, hab ich's nochmal probiert. Jetzt funktioniert die Anmeldung im Backend und die Speicherung von Artikeln wieder ohne jedes zutun(?).

    Ich war bis vor kurzem bei Joomla100. Dort ist mir das auch schon mehrmals passiert und jetzt bin ich bei Strato.

    Ich werde aber auf jeden Fall mal bei Strato nach Gästebuch oder verwandt schauen. Brauch in nicht. Werde ich vorsorglich deaktivieren.

    Hallo,

    ich habe gerade einen Artikel geändert. Nach drücken auf "Speichern&Schließen" erschien die Meldung "index.php - Download komplett". Der Artikel wird nicht gespeichert und der Browser bleibt auf dem "geöffnet" Artikel. Nach schließen des Browserfensters und Neuanmeldung im Backend erfolgte bereits dort diese Meldung. Eine Anmeldung war nicht möglich.

    Dieses Phänomen hatte ich bereits vor ein paar Tagen. Am nächsten Tag funktionierte allerdings wieder alles normal. Ich habe die Frage nach der Ursache evtl. bereits vor über einem Jahr im Joomlaportal gestellt, dieses ist aber nicht mehr abrufbar und ich habe die Lösung nicht mehr in Erinnerung, finde auch nichts in den Suchmaschinen.


    Kann mir jemand eine Umgehungslösung nennen?


    Danke.


    Grüße

    @deejey

    Danke für den Tipp. MySQL ist aber leider für mich wie phpmyAdmin eher ein Fremdwort. Selbst wenn MySQLDumper einfach zu bedienen wäre, ich möchte es lieber nicht riskieren.


    @Re:Later

    Das hätte ich selbst finden müssen, liegt aber an meinen mangelnden Deutschkenntnisse und Anwendung von google-translate. Ich hab ZOOport gesucht und nicht mehr gefunden. Es beruhigt, dass es das noch gibt.

    Allerdings will ich's nächste Woche mal mit den PHP-Einstellungen (Strato) versuchen.

    Danke.

    @j!-n

    Pest

    Danke. Auf der aktuellen Installation will ich lieber noch nichts ändern, da es ja läuft. Ich habe aber im Paket von Strato noch weitere unbenutzte Domains. Ich werde mal in den nächsten Tagen dort Zoo installieren und versuchen, die 5.000 Datensätze aus der aktuellen Installation ohne die Komponente ZOOport hochzuladen. Wenn es mit der Änderung in PHP funktioniert, würde es mich zumindest beruhigen und ich würde dann liebend gern bei Zoo bleiben.

    Ich werde hier nochmals berichten.

    Ich gebe zu, damit habe ich mich noch nicht befasst. Es wäre zumindest die einfachere Einarbeitung gegenüber sonstigen Komponenten. Allerdings befürchte ich, dass ein CSV-Im-/-Export wie bei den sonstigen Joomla-Beiträgen nicht möglich sein wird. Dann wäre es schon erledigt. Denn myAdmin, falls man von dort downloaden könnte, ist für mich ein Buch mit 7 Siegeln.

    Danke.

    Hallo,


    Ich arbeite mit ZOO und veröffentliche so Adressdaten und Artikel (über 5.000). Meine Erfahrung: Bei sehr vielen und umfangreichen Datensätze schafft es Zoo nicht/kaum ohne Unterbrechung Daten hoch- bzw. herunterzuladen. Deshalb die Zusatzkomponente ZOOport von Zoolanders. ZOOport gibt es m. W. in dieser Form aber nicht mehr. Mit SOBIpro und Seblod habe ich auch schon vor Jahren gearbeitet. Aber mehr schlecht als recht, da doch zu programmierlastig.

    Frage: Kennt jemand Alternativen zu Zoo von Yootheme für Wenig-/Nichtprogrammierer?

    Danke.

    Hallo,


    ich habe ein spezielles Problem mit Zoo von Yootheme und Zooport.


    Ich lade zu Zoo immer wieder Datensätze (ca. 10 Spalten) hoch. Die Spalten werden im Oberbegriff Kernattribute (gibt das Programm vor: ID, Meta Titel, Meta Description usw.) und Elemtente (selbst erstellte Feldnamen: Ort, Straße usw.) genannt.

    Alles kein Problem. Jetzt möchte ich allerdings nur die MetaDescription ändern. Also alle Datensätze heruntergeladen und geändert. Hochladen will ich nur die Spalten ID (wichtig für die Zuordnung) und Meta Description. Dies wähle ich in der Zuordnung aus. Trotzdem kommt die Meldung „Bitte wähle eine Spalte aus.“

    Evtl. möchte er auch Spalten aus „Elementen“. Also wähle ich noch Straße und Ort. Trotzdem nimmt er die Daten nicht.

    Es sind 5.000 Datensätze.

    Nehme ich nur 10 komplette Datensätze zum upload funktioniert alles.

    Ich möchte einfach nicht alle 5.000 Datensätze komplette hin und her schieben, da dann eher Fehler passieren. Für den Upload verwende ich den Zooport von Zoolander, da Zoo diese Menge im Upload nicht schafft.

    Frage:

    Ist jemand die Mindestzahl an Spalten bekannt, die Zooport für den Upload wünscht?


    Danke.

    Nur für die, die CookieHint weiter verwenden möchten.


    Ich habe das Problem reDIM ("Ersteller" des Plugins) mitgeteilt, da Sie ja bei einem kostenlosen Plugin über Probleme unterrichtet werden sollten. Und obwohl ich geschrieben habe, dass ich keinen Support für etwas kostenloses wünsche, kam sehr schnell die Lösung:

    In die robots.txt die Zeile

    Disallow: /*?rCH

    einfügen. Tatsächlich erscheint dann die Dateiendung nicht mehr. Habs ausprobiert.

    robots.txt


    Grüße

    PS: Meine robots.txt hatte ich eigentlich gelöscht ... und jetzt wieder eingeführt.

    Irgendwo habe ich bei meiner Suche schon mal gelesen, dass Joomla die error.php mit jedem Update überschreibt. Ich hab mir vorsorglich alle paar Wochen eine Wiedervorlage erstellt.


    Man sieht ja an meinen Beiträgen, dass ich jetzt 2 Monate (mit Unterbrechung) gesucht und probiert habe. Öfter bin ich auf die Lösung mit der htaccess (Zeile: ErrorDocument 404 ...) gestossen. Schien mir am einfachsten, ich habs aber nicht hinbekommen, obwohl es m. E. am Dateinamen und am Pfad nicht liegen konnte. Ist aber egal. Ich lass es jetzt halt so.

    Danke.