Die Blogbeiträge von Bernhard Schloss zur KI haben mich daran erinnert, dass das PM Magazin gerade eine Blogparade aufgelegt hat, an der ich mich hiermit mit einem sehr skeptischen Beitrag beteiligen möchte.
Nebenstehendes Bild entstand mit KI-Hilfe. Details sind hier zu finden.
Der deutsche Begriff der Intelligenz führt schon ein wenig in die Irre. Im englischen Sprachgebrauch gibt es ein Dutzend Bedeutungen für das Wort „intelligence“. Zu Beginn der „artificial intelligence“ stand nicht die Nachbildung der menschlichen Intelligenz sondern eher Informationsverarbeitung im Fokus.
KI wurde in den letzten zwei Jahren mit den großen Sprachmodellen zum Hype und wird in den nächsten Jahren sicher in viele Anwendungsbereiche einsickern. Sie wird Aufgaben beschleunigen aber auch oft unkritisch genutzt werden und am Ende vielleicht nur zu einer Potenzierung des Mainstreams beitragen.
Statistischer Remix statt Verständnis
Die Technologie des maschinellen Lernens ist schon alt und war lange durch fehlende Rechenleistung limitiert. Dennoch ist die Technologie in Nischenbereichen schon jahrelang im Einsatz. Beispielsweise werden in der Astrophysik die Aufnahmen der Teleskope schon lange mit KI-Unterstützung durchmustert. An diesem Beispiel wird aber auch die wesentliche Limitierung von KI deutlich. Der Begriff „durchmustern“ bildet eine schöne Brücke. Astronomische Aufnahmen können wegen der Menge der Details nicht mehr manuell und von Hand ausgewertet werden. Stattdessen sucht eine KI nach bereits bekannten Mustern und übersieht logischerweise unbekannte Muster:
Obwohl es seit Jahrzehnten auf astronomischen Aufnahmen auftaucht, wurde das am schnellsten wachsende und hellste Schwarze Loch des bekannten Universums erst jetzt als solches identifiziert. Das hat die Europäische Südsternwarte jetzt publik gemacht, deren Very Large Telescope (VLT) dafür benutzt wurde. Der Quasar mit der Bezeichnung J0529-4351 kommt demnach auf 17 Milliarden Sonnenmassen und eine Akkretionsscheibe aus darum rasendem Material mit einem Durchmesser von sieben Lichtjahren. Das wird dabei so erhitzt, dass sie insgesamt mehr als 500 Billionen Mal heller leuchtet als unsere Sonne. Gerade wegen dieser außergewöhnlichen Werte wurde es wohl bislang übersehen.
https://www.heise.de/news/Von-Algorithmen-aussortiert-Am-schnellsten-wachsendes-Schwarzes-Loch-entdeckt-9632159.html
Die KI suchte nach Mustern, die den bisher bekannten schwarzen Löchern entsprachen und hat das Objekt mit den bahnbrechenden Dimensionen schlicht und ergreifend aussortiert. Mit anderen Worten keine KI dieser Welt kann selbstständig Lösungen für Unbekanntes finden, sie remixt nur das, was sie schon kennt.
Bei den Sprachmodellen ist es nicht anderes, sie können nur Antworten aus Bausteinen zusammensetzen, die während der Trainingsphase eingespeist wurden. Dabei spielen auch die Häufigkeit der Bausteine und der Kontext der Anfrage eine Rolle. Die KI versteht die Anfrage nicht sondern versucht eine statistisch plausible Ansammlung von Textbausteinen zu den eingegebenen Worten zu finden.
Dieser Remix von Bekanntem und Häufigem ist nichts Verwerfliches. Bei allen Aufgaben, die im weitesten Sinn auf Recherche basieren, kann KI helfen und viel schneller nutzbare Ergebnisse liefern als es mit einer Suchmaschine und Nachlesen möglich wäre.
Wenn es aber um Kreativität, die Entwicklung neuer Dinge oder gar das Zusammenarbeiten von Menschen geht, sehe ich beim Einsatz von KI mehr Nachteile als Vorteile. Neue Themen bedeuteten, dass der KI dazu noch keine Trainingsdaten vorlagen. Dementsprechend sind die Ergebnisse weniger verlässlich oder frei halluziniert.
Im Bereich der „Künstlichen Intelligenz“ ist eine Halluzination (alternativ auch Konfabulation) ein überzeugend formuliertes Resultat einer KI, das nicht durch Trainingsdaten gerechtfertigt zu sein scheint und objektiv falsch sein kann.
https://de.wikipedia.org/wiki/Halluzination_(K%C3%BCnstliche_Intelligenz)
Es empfiehlt sich auf jeden Fall den Ergebnissen einer KI eine Portion Misstrauen entgegen zu bringen. Möglicherweise wird der zeitliche Vorteil durch die Nutzung einer KI durch erhöhten Aufwand die Ergebnisse zu plausibilisieren wieder aufgebraucht.
Menschen und Entscheidungen
In meiner Praxis sind die wichtigsten Elemente der Projektarbeit die gelungene Kooperation der Menschen untereinander und das Treffen von Entscheidungen. Bei beiden Aspekten will ich keine KI einsetzen. Soll ich Spannungen im Team von einer KI analysieren lassen, Einstellungen und Entlassungen einer KI überlassen? Inhaltliche Entscheidungen in projektartigen Arbeitsfeldern sind aufgrund (definitionsgemäß) neuartigen Kontexten ohnehin ungeeignet um sie einer KI zu überlassen.
Verantwortung
Echte Entscheidungen müssen verantwortet werden. Verantwortung bedeutet unangenehme Fragen zu beantworten wenn sich die Entscheidung im Nachhinein als schlecht erweist. Genau das kann eine KI (noch) nicht. Ob die hierzu laufenden Forschungsarbeiten kurzfristig Ergebnisse bringen ist fraglich.
Mein Fazit – meine Güte
Ich hatte es im ersten Abschnitt schon angkündigt, dass ich sehr skeptisch bin, dass KI in der Projektarbeit großen Nutzen stiften wird. Sicher gibt es Aufgaben, die mit KI schneller und schöner erledigt werden können. Das sind in der Regel aber keine erfolgskritischen Aufgaben. Meiner Auffassung nach sind Projekte und projektähnliche Kontexte überwiegend soziale Systeme. Eine der Eigenschaften sozialer System ist die, dass sie nicht so umfassend beschrieben werden können, dass sie einer KI der nächsten oder übernächsten Generation als Trainingsdaten dienen könnten.
Ich denke, dass das „Mensch-sein“ ein wesentlicher Faktor bleiben wird.