Voraus möchte ich klarstellen, dass ich kein Hasser der Technologie hinter "Künstlicher Inteligenz" bin. Ich habe etwas gegen den gebrauch des Begriffes "künstliche Inteligenz" im Bereich Marketing. Zum einem wird dieser Begriff in der Zwischenzeit wann immer möglich an jedes Produkt angeheftet wird. Ein Beispiel ist die Marke Oral-B. Sie hatten eine elektrische Zahnbürste, welche mit verschiedenen Sensoren das Zähnereinigen überwacht und dann eine Rückmeldung über die Qualität gibt. Als der KI-Hype begann wurde die gleiche Zahnbürst plötzlich damit beworben, dass Künstliche Inteligenz die Bewertung übernimmt.
Dieser Rant soll nicht gegen die Technologie, sondern mehr gegen den Gebrauch der Begriffes sein und den Erwartungen, die teilweise dadurch entstehen.
Die Technik
Bei einem Problem gibt es immer drei Teile.
- den Startpunkt
- den Enpunkt
- den Weg
Beim klassischen Programmieren kennt man den Weg. Daher kann man dem Computer programieren zu jeglichen Startpunkten den Endpuunkt zu finden. Für komplizierte Probleme kann dies aufwändig und schwierig sein. Versuchen sie einmal ein klassisches Programm zu schreiben, welches Überwachungskameras erkennt. Das ist extrem schwierig. Obwohl eine Überwachungskamera meistens nur ein weisser Kasten mit einem schwarzen Zylinder als Objektiv ist.
Bei dem maschinellen Lernen ist der Ansatz anders. Man hat eine grosse Menge an Paaren aus Start- und Endpunkten, den Trainingsdaten. Dann lässt man den Computer verschiedene Kombinationen von Wegen ausprobieren, bis man einen hat, welcher die Anforderungen erfüllt.
Nimmt man das Beispiel mit den Überwachungskameras, so ist dies einfacher Umzusetzten, da wir dem Computer nicht aufwändig erklären müssen, wie eine Kamera aussieht. Es lernt den Unterschied von selbst. Der daraus resultierende Weg wird mehrheitlich auch als Modell bezeichnet.
Das Problem ist, das man nicht immer sicher ist, ob der Computer lernt, was er soll:
Die Probleme
Es gibt verschiedene Probleme mit Maschinellem Lernen welche ich kurz beleuchten möchte, damit ich weiter unten verständlicher argumentieren kann.
Intranzparentz
Es gibt eine Geschichte, welche das Problem von Maschinellem Lernen gut erklärt. Dabei wurde an einer Universität ein Modell trainiert, welches Drohnen auf Bildern von Überwachungskameras erkennen soll. Da es gefährlich ist, mit Drohnen in einem Gebäude zu fliegen und das Equipment wie Kameras und Computer nicht billig ist, wurde ein Bereich mit Netzen abgetrennt. In diesem Bereich flogen nun die Drohnen und wurden von dem Computer gesucht.
Als die Wissenschaftler zufrieden waren mit der Erkennungsrate des Modelles wollten sie es in der realen Welt testen. Dazu haben sie ein offenes Feld aufgesucht und die Drohnen wieder fliegen lassen. Plötzlich hatte der Computer Probleme mit der Suche der Drohnenen
Nach langer Analyse des Modelles wurde das Problem gefunden. Der Computer hat nicht gelernt eines Drohne zu suchen und zu erkennen, sondern hat begriffen, dass sich die Drohne dort befindet, wo das Netz verdeckt ist. Beim Test war kein Netz vorhanden, welches verdeckt worden ist. Somit war das Modell absolut ratlos.
Halluzinationen
Ein grösseres Problem von Maschinellem Lernen ist die Halluzination. Dass Modell weiss nicht wann es falsch liegt. Es kennt nur den Weg, den es gelernt hat. Dieser ist jedoch stark von den Trainingsdaten ab. Wird ein Fall nicht in den Trainingsdaten abgebildet, welcher später an das Modell übergeben wird, so kann man nur hoffen dass das Resultat stimmt. Wurde das Training und die Kontrolle gut durchgeführt, so sollte es kein Problem sein. Jedoch wird die Kontrolle meistens aus Zeitgründen gekürzt und von den Modellentwicklern selbst durchgeführt. Diese sind jedoch meistens nicht die besten Personen für die Kontrolle, da sie selber eine Ahnung haben von den Trainingsdaten und somit ähnlich testen. Dies kann zu spannenden Resultaten führen.
Auf der anderen Seite sind die meisten Modelle nur für einen engen Einsatzbereich bestimmt. Daher müssen sie mit Kontrollen umgeben werden, damit sie nur innerhalb des geplanten Einsatzbereiches genutzt werden. Ansonsten werden die Resultate nicht zuverlässig sein.
Viele Beispiele für Halluzinationen sind durch das Erscheinen von ChatGPT bekannt geworden. So hat dieses Personen, Länder oder Geschehnisse erfunden.
Der Begriff
Ich bevorzuge die Bezeichnung Maschinelles Lernen für dieses Gebiet der Informatik. Da es die Technologie besser beschreibt. Ich möchte nicht in eine Philosophische Diskussion über den Begriff Inteligenz abschweifen.Jedoch gibt der Begriff Künstliche Inteligenz vielen Laien den Eindruck, dass sie es mit einem Bewusstsein zu tun haben und behandeln solche Systeme auf diese Weise.
Dazu gibt es eine kleine Geschichte. Ein Lehrer lies alle seine Schüler bei einem Aufsatz durchfallen. Wieso? Sie haben alle ihren Aufsatzt durch ChatGPT schreiben lassen. Wie hat er das festgestellt? Er hat ChatGPT gefragt, ob es die Aufsätze geschrieben hat.
Jemand, der sich schon länger mit dem Thema Künstliche Inteligenz beschäftigt, wird sich fragen, wie eine so dumme Person Lehrer werden konnte. Das ist jedoch die flasche Sichtweise für dieses Problem. Der Lehrer hat nicht begriffen dass ChatGPT die Antwort aufgrund von Wahrscheinlichkeiten berechnet. Die Antwort wird jeweils in Schritten von drei Elementen (Wörtern, Buchstaben oder Sonderzeichen) gebildet. Die nächsten drei Elemente werden jeweils nach Wahrscheinlichkeit ausgewählt, dass sie auf die bestehende Elementreihe folgen würden. Das System kann sich jeweils auf schon bestehende Texte beziehen, wenn sie angegeben werden. Auf diese Weise kann ChatGPT eine Konversation führen und den Kontext beachten. Jedoch kann es nicht auf die Konversationen von anderen Benutzern zugreifen.
Dem Lehrer wurde durch die Bezeichnung von ChatGPT als künstliche Inteligenz sugeriert, dass auf der anderen Seite ein Gebilde ist, welches einem Menschen ändlich ist. Sporich es kann sich an die Konversationen mit anderen Personen erinnern und es kann sein eigenes Werk erkennen. Jedoch sind selbst die modernsten Modelle weit von diesem Punkt entfernt. Dabei ist die heutige Technik auch ein grosser Hinderungsgrund.
Mir ist bewusst dass die Laien mit dem Begriff künstliche Intelligenz besser umgehen können als mit dem Begriff Maschinelles Lernen. Jedoch schwingen beim Begriff Künstliche Inteligenz Assoziationen mit, welche nicht stimmen. Dies hängt zwar meist damit zusammen, wie man Intelligenz beschreibt.
Ein Vergleich
Beim Gamen ist im Bereich Grafik das sogenannte Ray-Tracing der letzte Schrei im Marketing, vorallem von Grafikkarten. Dabei gibt es aber immer wieder die Rufe, dass die Qualität von Ray-Tracing nicht besser ist als die bisherigen Grafiken. Objektiv gesehen sehen beide ziemlich ähnlich aus. Dies liegt aber vorallem daran, dass geschickte Programmierer immer besser wurden die Effekte von Beleuchtungen zu immitieren, so dass das Resultat immer realistischer wurde.
Möchte man wissen, wie Licht funktioniert, so kann man dies aus den alten Techniken schlecht ableiten. Man kann vielleicht begrieffen was die Effekte von Licht sind, aber nicht wie es funktioniert. Beim Ray-Tracing hingegen wird die physikalische Natur des Lichtes nachgebildet. Somit kann man anhand vom Ray-Tracing das Licht physikalisch Erklären.
Bei der künstlichen Inteligenz sind wir noch bei den alten Techniken. Wir können die Abläufe immitieren, jedoch können wir aus den Modellen keine Rückschlüsse über die physikalischen Tatsachen gewinnen. Es braucht einen neuen Ansatzt, um Künstliche Inteligenz wirklich intelligent zu machen
Schlusswort
Ich setzte selber Maschinelles Lernen ein. Sei dies um kleine komplexe Probleme zu lösen oder um mich durch die Konversation mit einem Sprachmodell inspirieren zu lassen. Jedoch ist mir bewusst was im Hintergrund läuft und wo die Grenzen sind.
Ich bin kein Gelehrter im Bereich von Maschinellem Lernen. Wir haben das Thema kurz im Studium besprochen. Privat habe ich mich auch oft damit beschäftigt. Jedoch habe ich keine grosse akademische Erfahrung zu diesem Thema. Berichte zu den im Artikel erwähnten Geschehznissen sollten leicht zu finden sein. Ansonsten gibt es genügen ähnliche Bericht von Vorfällen. Ich weiss nicht mehr wo ich von den einzelnen Vorkommnissen gelesen habe und bin zu faul um die Links selber zu suchen.