KI Missbrauch

Eine KI kann, wie fast jeder Gegenstand, zu Guten aber auch zum Bösen verwendet werden. Sie kennen vielleicht den Begriff der "DualUse"-Güter. Aber auch eine KI kann Fehler haben und es gibt mehrere Beispiele, bei denen ein KI als Chatbot auf Webseiten integriert wurde und über geschickte Fragen auch andere Tätigkeiten ausgeführt hat. Auf dieser Seite möchte ich die Funktion der KI als Formulierungshilfe etwas kritisch beleuchten, sei es als verbesserte Schreibkraft, Spracherkennung, Rechtschreibprüfung oder Telefonsystem.

Arztbriefe mit KI

Auslöser war ein Artikel zur "KI als Arztbriefassistenz" vom UKE

Wenn wir aber zu dem Thema recherchieren, dann finden wie sehr viele Treffer. Das Thema scheint sehr attraktiv zu sein. Vielleicht liegt es an den Anbietern aber vermutlich auch an den Ärzten, die sich eher ungern an den PC setzen und einen Arztbrief "tippen". Nicht umsonst gibt es schon lange Diktat-Software mit Spezialwörterschatz für Ärzte aber auch Juristen.

Da ist also ein Markt wobei ich mich schon wundere, denn sowohl der Schreiber als auch der Leser sind ja Fachpersonen mit medizinischem Hintergrund. Ich stelle mir das nun so vor

  • Hausarzt
    Die meiste Geschichten beginnen mit einem Besuch beim Hausarzt, der ggfls. zum Facharzt überweist
  • Überweisung
    Die Überweisung enthält neben dem Patientendaten und Abrechnungsthemen auch Informationen vom Hausarzt an den Facharzt.
  • Facharzt und Arztbrief
    Wenn der Facharzt oder das Krankenhaus die Behandlung abgeschlossen hat, wird der Patient hoffentlich geheilt entlassen und ein Arztbrief wird vom Facharzt erstellt. Der Arzt muss also möglichst fehlerfrei seine Diagnose, etwaige Behandlungsschritte und weitere Informationen weitergeben. Ich stelle mir das so vor, dass der Arzt im Kopf eine Art Stichpunkteliste hat, was in den Arztbrief kommen muss. Er kann dies nun selbst formulieren und niederschreien, formulieren und diktieren und schreiben lassen oder die Stichpunkte einer KI übergeben, die dann einen Brief schreibt. Die KI konnte ja "lernen", wie Arztbriefe so aussehen. Ich bezweifle aber, dass die KI mit der Kombination aus Stichpunktliste und Ergebnis trainiert wurde
  • Hausarzt "decodiert"
    Der empfangende Hausarzt muss nun den Arztbrief lesen und aus dem Fachbegriffen sich wieder ein Bild über den Gesundheitszustand seines Patienten machen. Schließlich soll er die Behandlung ggfls. zu Ende bringen. Aber auch Hausärzte haben wenig Zeit und was sollte ihn daran hindern, den elektronisch empfangenen Brief nicht seinerseits an eine KI zu übergeben, die ihn "lesbar zusammenfasst". Das macht Microsoft Teams mit Besprechungsnotizen doch auch und nicht mal schlecht. Wobei es eher nicht um Menschenleben geht.

Ich frage mich natürlich, welche Fehler bei einer zweimaligen Konvertierung einer Information auftreten können. Es gibt ja so nette Bücher wie "Mensch -Hund, Hund -Mensch" und gleiche auch für andere "Missverständnisse".


Ohne Amazon Werbelinks

Diese Bücher würde ich aber eher bei Comedy und weniger bei Wörterbuch oder Fachbuch einordnen.

Bei eine Arztbrief stellt sich mir die Frage, ob der Facharzt nach dem Diktat und dem "schick machen" per KI sich wirklich hinsetzt und das Ergebnis der KI mit der gleichen Konzentration liest und Unstimmigkeiten wirklich ausreichend sicher erkennt.

Arbeitszeugnis

Ein weiteres Beispiel, welches mir direkt einfällt, sind die Arbeitszeugnisse, welchem vom Arbeitgeber für Mitarbeiter auszustellen sind. Natürlich hat ein Mitarbeiter ein Anrecht auf ein Arbeitszeugnis und das sollte er auch nicht nur am Ende der Beschäftigung für die Firma erhalten sondern durchaus auch während der Beschäftigung, z.B. beim Wechsel der Vorgesetzten oder der Abteilung.

Aber aus meiner Sicht sind solche Arbeitszeugnisse auch wieder das Paradebeispiel für "verknotete" Sprache, um sich um klare Aussagen zu drücken. Es gibt schon lange spezielle "Arbeitszeugnisgeneratoren", in die von der Personalabteilung die Bewertungen in "Schulnoten" eingegeben werden und dann ein passender Text herauskommt, den der Arbeitnehmer möglichst positiv auffasst. Wir kennen alle den Witz mit "Hat sich stets bemüht", was genaugenommen eine "6" ist. Muss das denn sein? jedes Kind in der Schule bekommt ein Zeugnis mit Fächern und Noten. Die Aussagen sind unmissverständlich und können in Streitfragen natürlich begründet oder auch nicht begründet werden. Aber sie können kaum missverstanden werden. Sind wir im Arbeitsleben nicht erwachsen genug, mit Bewertungen umzugehen. An vielen anderen Orten, z.B. Stiftung Warentest, Sternchen in Ebay, Amazon etc. geht es doch auch.

Und nun lassen wir eine KI da dran.

  • Arbeitgeber vergibt Noten
    Natürlich tut er das, denn so ticken wir Menschen, wenn wir etwas bewerten. Sind es nun Euro, Kilogramm, Sternchen o.ä. Das machen wir für verschiedene Teilbereiche und dann versuchen wir dies in Texte zu wandeln.
  • Arbeitnehmer und nächster Arbeitgeber
    Wer nicht täglich mit Arbeitszeugnissen zu tun hat, wird nun versuchen die Floskeln wieder in Noten zu übersetzen

Selbst vor Arbeitsgerichten werden angeblich unrichtig Arbeitszeugnisse doch nicht anhand der Textbausteine gestritten sondern wieder die Klartextinformation sichtbar, bewertbar und verhandelbar gemacht. Und das soll eine KI besser machen oder dafür sollen wir die Kosten, die Energie und Komplexität investieren, nur weil wir keine numerischen Noten vergeben wollen?

Ich würde für Arbeitszeugnisse mit einem numerischen Bewertungsschema ohne "Geheimschrift" plädieren.

Ja, eine schlechte Bewertung könnte die Bewerbung auf eine neuen Stelle erschweren, aber mit einem lesbaren Zeugnis wüsste der Arbeitnehmer auch, warum er sich viele Absagen einhandelt. Überall werden Menschen "numerisch" klassifiziert, z.B. bei Bonitätsabfragen (Schufa, Banken etc.), Selbstauskünften bei Vermietern etc.

Technische Konvertierungen

Eine KI zeichnet sich für uns dadurch als besonders aus ,dass Sie mit Texten sehr viel besser umgehen kann, als frühere Programme. Eine KI kann anscheinend wirklich Texte, Bilder, Töne etc auf eine Art in Zahlen umwandeln und zurückverwandeln, dass es für Menschen immer schwerer wird dies zu erkennen.

Solche Verluste durch Konvertierung gibt es auch im technischen Bereich. Natürlich ist der Klang eines analogen Tonbandgeräts oder Schallplattenspielers anders, als der digitalisierte Ton eines CD-Laufwerks oder gar MP3-Player. Hier kann ich aber heute sagen, dass die Verluste für die Mehrzahl der Nutzer "unhörbar" sind. Wenn Sie aber einen Audio-Schnipsel mehrfach transcodieren, wird immer etwas mehr verloren gehen. Vergleichen Sie dies mit einer Fotokopie eines Dokuments. Jede Kopie des Originals wird kaum schlechter sein aber wenn sie Kopien von Kopien von Kopien anfertigen, dann wird die Verschlechterung sichtbar.

Auch die immer gängigeren "4k-Fernseher" können normalen 1080p-FullHD-Datenstroum nur wiedergeben, wenn Sie mittels Interpolation die "fehlenden Pixel" erraten oder mitteln. Gleiches gilt für SD-Inhalte auf höher auflösenden Geräten. Allerdings sehen das die Betrachter meist gar nicht, da unser Auge bei bewegten Bildern sehr tolerant ist und schon aufgrund des Abstands die Auflösung nicht mehr erfasst werden kann.

KI Kennzeichnungspflicht

Wir werden den Einsatz einer KI nicht aufhalten können und KI kann schon dabei helfen, dass die Qualität der Ergebnisse besser wird. Allerdings muss der Mensch als Autor seine Aufsichtspflicht gewissenhaft wahrnehmen und das Ergebniss sollte klar als "KI-generiert" erkennbar sein. Schon damit andere KIs diese Informationen nicht ungeprüft als Lernmaterial einbeziehen.