ChatGPT

KI und AI sind schon lange interessante Forschungsfelder und mit ChatGPT soll es nun eine AI geben, die für jeden einfache zu nutzen ist. Meine Erfahrungen sind durchwachsen. Vielleicht habe ich nur die Fragen missverständlich formuliert aber sie sollten schon genau die Antworten auf Plausibilität prüfen. Das gilt aber natürlich auch für alle Aussagen und Skripte, die hier auf der MSXFAQ aus meinem "menschlichen Computer" entspringen. Auch bin ich nicht fehlerfrei und das bezieht sich nicht nur auf den ein oder anderen Tippfehler auf den Seiten.

Anmeldung

Sie brauchen nicht lange zu suchen, bis sie auf die URL https://chat.openai.com stoßen und sich mit ihrer Mailadresse oder alternativ einem Microsoft- oder Google-Konto anmelden müssen. Bei einem OpenAi-Konto möchte er noch eine Verifikation mit einer SMS an eine Rufnummer durchführen und sendet eine Verifizierungsmail an die angegebene Mailadresse. Insofern sollte

Kennst du MSXFAQ?

Zuerst habe ich natürlich mal gefragt, ob OpenAi etwas mit MSXFAQ anfangen kann. Es kam tatsächlich eine Antwort mit Computerbezug zurück. Allerdings wurde MSX nicht mit "Microsoft Exchange" assoziiert, sondern mit dem Akronym "MSX". Der Dialog war:

Q: do you know msxfaq ?

A: I am familiar with MSXFAQ, it stands for "MSX Frequently Asked Questions", which is a document that aims to answer common questions about the MSX computer system. MSX is a standard for home computers that was first announced by Microsoft in 1983. The standard was intended to be used in Japan and other countries in the Far East, and several manufacturers produced MSX-compatible computers. MSXFAQ is a good resource to learn more about the MSX computer and its features.

Das ist zwar nicht meine erhoffte Antwort aber auch nicht ganz falsch.

  • The ultimate MSX FAQ
    https://www.faq.msxnet.org/
    Beschreibt einen japanischen Computer aber die Webseite ist sehr alte und verweist z.B. noch auf einen "Webring". Das war eine Technisch aus den 90er, um mehrere Webseiten zum gleichen Thema über das Yahoo-Directory zu verknüpfen.

Kennst du msxfaq.de

Also habe ich die Anfrage etwas konkretisiert und nach der Webseite gefragt:

Q: do you know msxfaq.de

A: I am not familiar with a specific website called "msxfaq.de". MSXFAQ is the name of a document and it could be hosted on different websites. It is possible that "msxfaq.de" is a website that hosts the MSXFAQ document or information related to the MSX computer system and its technical specifications. Without more information, I am unable to provide more details.

Also hat ChatGPT zumindest nun den Bezug zu einer Webseite hergestellt, auch wenn ich kein "HTTP" in der Frage verwendet habe. Ich habe erst mal nicht weiter gebohrt

Mathematik 10 Klasse

Ein willkommener Ansatz mit ChatGPT zu spielen, war nun nicht "Programmieren", sondern Mathematik. Im Buch stand folgende Aufgabe zum Thema exponentielles Wachstum:

Auf der Welt gibt es 217 Mrd Tonnen Erdölreserven 
Jeden Jahr werden 4 Mrd Tonnen mit einer Steigerung von 2% verbraucht.
Wann sind alle Vorräte verbraucht?

Ohne die 2% Steigerung wäre es eine linearen Abnahme und schnell mit 217/4 = 54,25 Jahre berechnet. Das hier erwartet Ergebnisse muss aber kürzer sein, da 2% sich über die Jahre immer weiter steigern aufaddieren. (Zinzeszinzrechnung):

Allerdings ist der Fall hier etwas kniffliger, da es nicht um Prozente auf den Basiswert geht, sondern auf den eigentlich linearen Abbau. Eine einfache Formel mit 0 = 217 - 4*(1,02)^n ist daher nicht ausreichend, das 4 nicht der Basiswert ist. Im zweiten Jahr sind ja nicht 4x1,02² sondern -4 -4*1,02 = -8,08 Einheiten verbraucht und im dritten Jahr dann 4+4*1,02+4*1,02² = 12,2416 und so weiter. Ehe ich nun mein Formelheft von damals raushole, wollte ich einfach mal sehen, was ChatGPT dazu meint.

Im Prinzip sieht das nicht schlecht aus und ChatGPT nimmt auch eine Formel zur Reihe aber ob das stimmt? Ich habe dann die gleiche Frage ein paar Minuten später noch einmal gestellt und ein ganz anderes Ergebnis bekommen:

Diesmal hat ChatGPT die Zinseszins-Formel genutzt aber die 4 aus der Frage einfach unterschlagen und nur mit 2% Abnahme der Gesamtmenge gerechnet und ein "Log(0)" gibt es auch nicht. Interessant, dass er auf eine Ergebnis kommt und in der Antwort auch wieder die 4 erwähnt.

Nun war ich doch selbst gefordert. Mein Ansatz wäre eine Reihen über Summen, bis ich die 217 überschreite, also:

0*4 + 4*1,02^0 + 1*4 + 4*1,02 ^1 + 2*4 + 4*1,02^2 + 3*4 + 4*1,02^3 +...  bis die Summe 217 überschreitet

Diese Formel hat natürlich die Unschärfe, dass schon im Jahr "0" nicht 4 sondern 4*1,02 abgezogen wird. Ich habe mal schnell Excel bemüht, um die Reihe zu berechnen. In Spalte C ist die Restmenge und in der Spalte B habe ich die Abnahme in dem jeweiligen Jahr, d.h. -4 und dann immer wieder um 2% erhöht, quasi wie eine Zinseszins-Rechnung auf die Abnahme.

Im 37 Jahr sollte dann irgendwo die 0 auftreten. Klingt gar nicht mal so schlecht. Aber machen 2% da so viel aus?

Es gibt noch einen anderen Ansatz, der einfach die lineare und exponentielle Wachstumsfunktion addiert, indem ich 4 linear abziehe und die prozentuale Steigerung zusätzlich subtrahiere. Auch das habe ich mit Excel berechnet und nicht erst versucht nach N aufzulösen:

0 = 217 - (N*4) - (4 * (1,02)^N)

N  213
0  208,92
1  204,84
2  200,76
3  196,67

....
50  6,23
51  2,02
52 -2,02

Nach der Rechnung wäre der Bestand irgendwann nach 51-52 Jahren aufgebraucht gewesen.

ChatGPT als Rechner?

Zuletzt habe ich meine Formeln mal direkt an ChatGPT übergeben aber er interpretiert sie und gibt mit Hinweise zur Lösung und bei der Lösung macht ChatGPT grundlegende Fehler aber schauen sie selbst.

Fertig ausrechnen ist aber auch nicht die Stärke von ChatGPT. Wenn ich das mache, kommt bei mir 269,52 raus, was definitiv falsch ist.

Ich habe bisher mich an die US-Schreibweise mit dem "Punkt", als Trenner für Nachkommastellen gehalten. Ich bin nicht sicher, ob da jeder Schüler drauf achtet. Wenn ich das deutsche "Komma" nutze, dann wird es noch schlimmer.

Ich habe keine Idee, warum die "4" hier kursiv ist warum er beim "move the 41.02^N" nur auf einer Seite subtrahiert und damit die Formel mächtig vereinfacht. Allerdings kommt er mit dem Ergebnis dann schon in den Bereich der Lösung, was einen Schüler wieder an die korrekte Rechnung glauben lassen kann.

Ich habe die Rechnung dann wieder mit dem US-Dezimalpunkt gestartet und explizit auch um die Ausrechnung gebeten.

Nun bin ich aber schon etwas verwirrt, denn ich nun aus sieben Rechnungen komplett unterschiedliche Ergebnisse und selbst meine beiden Excel-Reihen unterscheiden sich so stark, dass ich eigentlich nicht an einen Rundungsfehler glauben kann.

Lineare Abnahme           = 57 Jahre
ChatGPT Reihe             = 47 Jahre
ChatGPT Zinseszins        = 41 Jahre
Excel Reihe               = 37 Jahre
Excel Potenzformel        = 51 Jahre
ChatGPT Formelausrechnen1 = 269,52 Jahre
ChatGPT Formelausrechnen2 = 54,25 Jahre
ChatGPT Formelausrechnen3 = 34,06 Jahre

Schlimmer kann es nun wirklich nicht mehr kommen. Glauben Sie, dass ein Schüler sich die Mühe macht und jede Rechnung noch einmal kontrolliert? Ich habe mir die Mühe gemacht und meine Excel-Rechnung mehrfach geprüft und bin ziemlich sicher, dass 37 Jahre die richtige Lösung ist.

WolframAlpha

Ich gehe mal davon aus, dass meine Formel eigentlich korrekt ist und zum Glück gibt es noch andere Werkzeuge zur Lösung von Gleichungen. Hinter WolframAlpha steckt zwar keine KI, die einen Fließtext interpretiert und in Prosa ausgibt, aber Sie löst korrekt eingegebene Formeln auf.

https://www.wolframalpha.com/input?i=0+%3D+217+-+%28N*4%29+-+%284+*+%281.02%29%5EN%29+

Wenn also meine Formel passt, die auch zumindest in einer Excel-Berechnung bestätigt ist, dann wären in der Mathematikaufgabe nach ca. 51 Jahren alle Erdölvorräte aufgebraucht. Nur dass ChatGPT zumindest in meiner Testserie das Ergebnis nicht ermitteln konnte.

Ich hatte noch nicht die Gelegenheit die Aufgabenstellung nun mit einem Mathematik-Lehrer durchzusprechen. Vielleicht irre ich ja auch.

Drum prüfe...

Ich bin sicher, dass ChatGPT durchaus aus einem Stand ist, Texte und Ergebnisse zu liefern, für die Menschen ohne Fachkenntnis deutlich länger brauchen. Aber das ist auch die Gefahr in solchen Techniken, dass so leicht darauf vertraut wird. Ich kann nur hoffen, dass die Nutzer die Ergebnisse nicht ungeprüft übernehmen sondern kritisch prüfen. Ich befürchte aber, dass mit jeder Verbesserung von AI-Lösungen immer mehr Menschen den zusätzlichen Aufwand nicht mehr aufbringen, da die Fehlerrate natürlich abnehmen wird. Und der Mensch selbst ist ja auch nicht unfehlbar.

Das wird auch eine interessante Diskussion mit selbstfahrenden Fahrzeugen, die natürlich auch Unfälle verursachen werden. Aber vielleicht sind autonome Fahrzeuge irgendwann weniger gefährlich als der durchschnittliche Fahrer, auch wenn die Haftungsfrage hier noch nicht abschließend geklärt ist.

Einschätzung

Bei ChatGPT ist es aktuell wohl so, dass der überwiegende Teil der Informationen aus dem Internet stammt und durch Menschen zusammengetragen und damit das Modell trainiert wurde. Die Fehler in den Quellen sind natürlich auch in dem Modell. Das allein ist aber nicht ursächlich für Fehler, den auch das Verständnis und die Interpretation der Fragestellung kann mehrdeutig sein. Das sehen Sie gut bei dem obigen Beispiel aus der Mathematik, bei der die identische Frage zu zwei unterschiedlichen Lösungswegen geführt hat aber beide nicht die Aufgabenstellung korrekt umgesetzt haben und damit das Ergebnis nicht stimmen kann.

Das ist sicher nicht die Regel und vielleicht kann ChatGPT schon heute viele Klausuren so beantworten, dass die Prüfung sogar bestanden wird. Aber das bedeutet nicht, dass sie automatisch auch forschen und lehren wird. Sie kann aber gerade kritische Menschen vielleicht andere neue Wege aufzeigen.

Allerdings ist meines Wissens aktuell nicht geplant, von der AI generierte Inhalte als solche zu kennzeichnen. Das führt natürlich mehr und mehr zur paradoxen Situation, dass durch eine KI generierte Inhalten als Input für zukünftige KI-Modelle genutzt werden. Die ersten Compiler wurden in Byte-Code geschrieben, um dann in einer höheren Sprache den nächsten Compiler zu schreiben und zu übersetzen und sich selbst so immer besser zu machen. Es gibt mit YACC sogar ein Akronym dafür.

Ob das aber auch mit KI gelingt, muss die Zukunft zeigen. Bis auf weiteres werde ich weiter meiner Arbeit nachgehen, die unterschiedlichsten Aufgabenstellung und Problemstellungen von Kunden bearbeiten, effektive und manchmal auch kreative Lösungen entwickeln und darüber schreiben. Solange meine Leser diese Informationen für ihre Umgebung zum Vorteil einsetzen können, etwas dabei lernen und sich vielleicht auch einmal eine Zusammenarbeit ergibt, wird die MSXFAQ weiter auch ohne AI/KI funktionieren. Mit allen Tippfehlern und veralteten Seiten.

All den Schülern und Studenten möchte ich den Rat geben, dass ChatGPT vielleicht die Hausaufgaben vereinfacht und man eine Klausur schafft, aber gelernt hat man nichts. Der Grund für Hausaufgaben, Aufsätze u.a. war noch nie, dass die Ergebnisse jemand gebraucht hat, sondern das darüber Nachdenken, das Quellenstudium, die Versuche und Planungen und letztlich das Schreiben die eigenen Fähigkeiten verbessern. Nichts ist unwichtiger als das Papier mit dem Ergebnis, nachdem es vom Lehrer bewertet wurde. Mit ChatGPT betrügt ihr euch nur selbst.

Weitere Links

Professor gegen KI! Kann ChatGPT meine Klausur lösen?
https://www.youtube.com/watch?v=SS24iTTOn7o

Wir Würfeln Wörter! So funktioniert ChatGPT! (Intuition)
https://www.youtube.com/watch?v=68G3tOWiDt4