KI gibt Antwort auf alle Fragen zu Joomla - aber stimmen die?

  • KI ist eine tolle Sache, ich verwende ständig chatGPT, um alles mögliche und unmögliche zu fragen.
    Und manchmal bekomme ich den perfekten Rat.


    Aber erstens stelle ich Fragen sehr genau. Zweitens gilt das nicht für aktuelles Wissen zu Joomla.

    Man muss sich bewusst sein, dass chatGPT seine Antworten aus allen möglichen, teils sehr, sehr veralteten Foren und Tutorials, stackoverflow und was weiß ich zusammenklaubt. Dieses Wissensspülwasser wird dem Fragesteller in gut formulierten Sätzen vorgesetzt.Und weil es ja von einer Intelligenz kommt, noch dazu von einer künstlichen, und weil es so wundervolle Sätze sind, glaubt es jede(r) unbesehen.

    Besonders schlimm ist es mit Code Beispielen, hier das aller einfachste:

    defined('_JEXEC') or die('Restricted Access'); wurde bei Joomla 1.7 spätestens abgeschafft und heisst aktuell \defined('_JEXEC') or die;
    Aber die veraltete und falsche Form erfährt gerade ein Revival weil Leute Code von chatGPT generieren lassen.

    chatGPT kenn den aktuellen Joomla Code ÜBERHAUPT NICHT!

    Bitte alle Fragesteller und Supporter - macht euch klar dass die KI nur das weiss, was wir alle hier im Lauf der Jahre im Forum und an anderen Stellen an Wissen gesammelt haben.
    Je älter das Wissen ist, um so öfter ist es inzwischen gelesen aber um so öfter ist es auch überholt und stimmt nicht mehr -> Glaubt erst mal kein Wort!

    Wenn ihr hier was von chatGPT posten wollt:
    Postet eure Frage und die von chatGPT generierte Antwort. Hier der Beweis, was ihr bei chatGPT bekommt .. 10 Jahre veraltet.

  • Dazu gab es kürzlich einen interessanten Artikel in der SZ ("Wer löscht den Datenmüll?" vom 3. März 2024), der sich wie folgt zusammenfassen lässt:

    Wenn KI/ChatGPT bzw. Generatiev KI sich selbst mit Falsch- oder Altinformation füttert (wie halt im Internet in Unmengen vorhanden), wird auch der Output Falschinformation enthalten. Da nun die Ergebnisse von ChatGPT oft wieder über das Internet verbreitet werden, trägt ChatGPT zwangsläufig dazu bei neue Falschinformation zu produzieren, die dann bei passender Gelegenheit von ChatGPT zusätzlich verwendet wird. Auf diese Weise werden die Ergebnisse von ChatGPT auf Dauer immer unzuverlässiger und ChatGPT erledigt sich irgendwann selbst.

    Das ist kein Argument gegen KI sondern nur gegen ChatGPT und alle anderen Tools, die ihre Daten aus dem Internet oder anderen zweifelhaften/ungeprüften Quellen beziehen. Von daher hätte ich z.B. ein sehr ungutes Gefühl bei Software, die durch ChatGPT und seinesgleichen generiert wurde - insbesondere, wenn es sich um sicherheitsrelevante Anwendungsbereiche handelt.

    Gruß

    Heinz

    "Wer es nicht versucht schafft es auch nicht."