Direkt zum Hauptbereich

Was ist das Problem? Künstliche „Intelligenz“ oder menschliche Skrupellosigkeit?

 Ist KI eigentlich nützlich oder nicht nützlich? (Und: ist diese Frage eigentlich sinnvoll oder Unsinn?)

Die Frage, so ganz undifferenziert, ist natürlich Unsinn. Gleichzeitig ist sie aber sehr wichtig, weil so viele Fantasien im Umlauf sind, welche Probleme alle mit „der KI“ zu lösen wären. Am 24. Juli 2024 ging eine Meldung durch die Presse, dass Bayerns Digitalminister Dr. Fabian Mehring (Jurist und Politologe) die Meinung vertrat, dass man unter anderem mit KI „den künftigen Ruhestand der Babyboomer-Generation und den dadurch entstehenden Fachkräftemangel … kompensieren“ könne.

Die öffentliche Verwaltung hat das Problem, dass sie kein Geld hat, im Vergleich niedrige Gehälter zahlt und gerade junge Kräfte ihr nach ein, zwei Jahren wieder weglaufen, weil die hierarchischen Verhältnisse für viele unerträglich sind. Da liegt es doch nahe, dass einem Minister der Sirenengesang der Big Tech aus dem Silicon Valley: „Unsere Softwares lösen alle Probleme der Welt!“ ungeheuer erleichternd erscheint: wir stellen KI-Bots ein, die arbeiten klaglos und stellen keine Forderungen. 
Schauen wir mal, was der Einsatz von KI – hier am Beispiel der öffentlichen Verwaltung - bedeuten könnte. Und das anhand von zwei Beispielen.

Beispiel 1: Einsatz in der Justizverwaltung der USA

In den USA ist seit Beginn der Nullerjahre ein Algorithmus namens COMPAS im Einsatz, ein Fallmanagement Programm (Correctional Offender Management Profiling for Alternative Sanctions). Es soll Strafverfolgern und Gerichten die Arbeit erleichtern, indem es das Risiko einzuschätzen versprach, mit dem ein Häftling nach seiner Freilassung rückfällig würde. „Gemeinsam bringen wir die Gerechtigkeit voran“, lautet der Werbeslogan.

In einem aktuellen DLF-Podcast wurde ein konkreter Fall geschildert. “Der Fall Glenn Rodriguez, 1990 verurteilt wegen Mordes 2. Grades im Bundesstaat New York. Er hatte in einer Gang eine Autohandlung überfallen, ein Mensch war gestorben.
Rodriguez war ein Musterhäftling, machte einen Collegekurs, engagierte sich als Freiwilliger. Draußen warteten ein Job und eine Bleibe auf ihn. COMPAS sagte weiterhin ‚hohes Rückfallrisiko‘. 2016 stand er vor einem Bewährungsausschuss, der senkte die Daumen, keine Entlassung.“

Und das ist der Normalfall. Bewährungsausschüsse entscheiden fast nie gegen die COMPAS-Vorgaben. Denn wenn sie für eine Freilassung stimmen und der Häftling wird doch später rückfällig, könnten sie verantwortlich gemacht werden. Also bleiben sie lieber auf der sicheren Seite.
In diesem Falle war es anders. DLF: „Rodriguez hatte Glück. Im Jahr darauf konnte er den Ausschuss überzeugen, dass mit seinem Risikowert etwas faul war. Ein Beamter hatte ein falsches Kästchen angekreuzt.“
Aber dass dieser Nachweis gelang, war ein sehr seltener Zufall. Er war nur möglich, weil es sich um einen Algorithmus handelte. Algorithmen sind – oft sehr komplizierte – Entscheidungsbäume, bei denen eine Ursache-Wirkungskette von Menschen noch nachvollzogen werden kann (in diesem Fall von Rodriguez‘ Anwalt). In unserem Beispiel „falsches Kreuz in Kästchen 25“ führt zu „negative Beurteilung“.

Beispiel 2: Eine Verurteilung in Frankreich

Ein Fall, in dem diese Nachvollziehbarkeit nicht mehr galt, stammt aus Frankreich. Vor ein paar Jahren wurde ein Mann einer Straftat angeklagt. Die Staatsanwaltschaft hatte als einziges Beweismittel ein unscharfes Foto aus einer Überwachungskamera am Tatort, auf dem eine Gesichtserkennungs-KI den Angeklagten erkennen wollte. Der Anwalt des Angeklagten fand, das Foto zeige seinen Mandanten überhaupt nicht zweifelsfrei. Er wollte Informationen über die Gründe erhalten, wegen der die KI zu ihrer Erkenntnis gekommen war – aber die Herstellerfirma verweigerte die Auskunft. Sie verwies auf ihr Geschäftsgeheimnis. Aber der Richter als Jurist vertraute der KI ohne einen Zweifel, sah in den Einwänden des Anwalts nur Ausflüchte und verurteilte den Beschuldigten.

Es hätte dem Anwalt vermutlich nicht viel geholfen, wenn die Firma ihm Auskunft gegeben hätte. Denn auch eine Offenlegung der Trainingsmethoden erlaubt es nicht, die KI nach ihren Entscheidungsgründen zu fragen. Das betrifft alle KI-Varianten, die auf der Methode der Neuronalen Netze beruhen: Erstens Programme der Mustererkennung und zweitens solche aus der Sparte „LLM“ (Large Language Models), die angeblich menschliche Sprache „verstehen“ und menschlich anmutende Texte generieren. Neuronale Netze, die mit großen Mengen von Daten trainiert werden, generieren so komplexe interne Strukturen, dass niemand mehr die Ursachen für Entscheidungen nachvollziehen kann. „Komplex“ bedeutet: es gibt den „Schmetterlingseffekt“. Ein paar geänderte Pixel in einem Bild, und die KI erkennt nicht mehr das Auto darauf, sondern tippt auf „Katze“. (Wer sich mit der Funktionsweise der neuronalen Netze vertraut machen will, dem sei das superspannende Buch empfohlen von Katharina Zweig: Die KI war's! Von absurd bis tödlich: Die Tücken der künstlichen Intelligenz, Wilhelm Heyne Verlag, 2023. 319 Seiten.)

Prinzipielle Schranken der Transparenz

Im DLF-Podcast wird Ulrike Luxburg zitiert, Professorin in Tübingen und Sprecherin des Exzellenzclusters „Maschinelles Lernen in den Wissenschaften“. Sie wird ganz kategorisch: Wenn wir ein neuronales Netz trainierten, um den Schulerfolg eines Kindes vorauszusagen, werde das nie nachvollziehbar sein. Wer Transparenz über den Einfluss von Entscheidungsgründe wolle, der müsse sich mit Algorithmen begnügen. Wenn ich z.B. eine Prognose über den Schulerfolg aufgrund von 20 Faktoren machen wolle, könne man mit einem Entscheidungsbaum schon sehr gute Ergebnisse erzielen. Und der Einfluss jedes Faktors sei dann auch für Menschen nachprüfbar.

Das Problem der KI ist nicht die KI

KI kann sehr nützlich sein. Wenn die KI einen literarischen Text für mich produziert, dann entscheide ich darüber, ob ich ihn gut finde oder verbesserungswürdig (den vorliegenden finde ich z.B. ganz okay). Wenn der Arzt die KI-Bilder von Darmwänden nach Tumoren durchsuchen lässt, dann wird er jeden Hinweis des Tools durch eine Biopsie überprüfen lassen. Solche Anwendungen sind extrem hilfreich.

Odysseus ließ sich an den Mast seines Schiffes fesseln, um sich selbst daran zu hindern, den Verlockungen von Lust und Gier nachzugeben. Der Mythos symbolisiert das Festhalten an Werten gegenüber dem Eigeninteresse.

Das Problem der KI-Anwendung beginnt, wenn Menschen mit politischer oder ökonomischer Macht bereit sind, künstliche Intelligenz auch dort zu installieren, wo ihre Anwendung im Fehlerfall zwar menschliche Existenzen vernichten kann, aber sie selbst einen Nutzen davon haben. Den Bewährungskommissionen in den USA verspricht COMPAS einen Ausweg aus ihrer Arbeitsüberlastung. Für den Richter in Lyon war die Identifikation eines Menschen als Täter durch die KI vielleicht die Bestätigung eines Vorurteils gegenüber Vorbestraften oder Migranten. Digitalminister Mehring in Bayern erhofft sich einen Ausweg aus der unlösbaren Zwickmühle aus zerrütteten öffentlichen Finanzen und steigenden Leistungsanforderungen vor allem im Kommunalbereich.

Das technizistische Denken (engl. solutionism) sieht alle Probleme mit technischen Mitteln lösbar. Moralische Fragen, die von keiner bislang verfügbaren Software auch nur „verstanden“, geschweige denn prozessiert werden können, werden nicht nur ignoriert, sondern einfach ausgeblendet. Gerade uns als technisch affinen Menschen tut es in der Seele weh, wenn wir die Anwendungsfelder toller Tools begrenzen sollen. Das ist die schiefe Bahn, auf die wir uns selber locken.








Kommentare

Beliebte Posts aus diesem Blog

Transparenz als Schlüssel zum Erfolg: 20 Reflexionsfragen für moderne Organisationen

Transparenz ist das Herzstück erfolgreicher Teams. Sie schafft Vertrauen und fördert Zusammenarbeit. Wenn alle Zugang zu den notwendigen Informationen haben, können sie fundierte Entscheidungen treffen und gemeinsam Lösungen erarbeiten. Dies führt zu höherer Effizienz, schnelleren Entscheidungsprozessen und besseren Arbeitsergebnissen. Transparenz ist mehr als ein Schlagwort – es gilt, sie greifbar zu machen, ein gemeinsames Verständnis davon zu entwickeln und es in die Praxis umzusetzen. Wie das gelingt und welche Vorteile es für Euer Team und Eure Organisation bringt, erkunden wir im Folgenden.

Microsoft Teams: Die neuen Besprechungsnotizen - Loop-Komponenten

  Haben Sie in letzter Zeit in einer Teams-Besprechung die Notizen geöffnet? Dort sind inzwischen die Loop-Komponenten hinterlegt. Die sind zwar etwas nützlicher als das, was zuvor zur Verfügung stand. Trotzdem ist noch Luft nach oben. Und es gibt sogar einige ernstzunehmende Stolperfallen. Hier ein erster, kritischer Blick auf das was Sie damit tun können. Und auch darauf, was Sie besser sein lassen.

Zu viel zu tun? Planen Sie Ihre ideale Woche

Wir hören immer wieder, dass Teams zu viel zu tun haben. Aber woher wissen wir eigentlich, was zu viel genau bedeutet? Hier ist ein ungewöhnlicher Tipp: Treffen Sie Annahmen über eine gute Menge. Planen Sie eine ideale Woche.

Wenn dein Team die Anforderungen blockt: 12 Tipps für Product Owner*innen

Liebe Product Owners, wir müssen reden. Schon wieder eine Anforderung, die im Nirgendwo landet? Zeit, das Ganze anders anzugehen. Ihr kennt das Spiel: Anforderungen sind ausgearbeitet, und doch läuft es im Team holprig. Was fehlt? Oft sind es Klarheit, realistische Erwartungen und ein bisschen Fingerspitzengefühl. Doch keine Sorge! Mit ein paar praktischen Tipps könnt ihr Missverständnisse vermeiden, Blockaden umgehen und den Entwicklungsprozess so richtig in Fahrt bringen – natürlich in Zusammenarbeit mit eurem Scrum Master. Hier sind zwölf Regeln, die euch helfen, das Team auf Kurs zu bringen und das Chaos in produktive Zusammenarbeit zu verwandeln. Wir zeigen dabei auch, wo der Scrum Master unterstützen kann, damit ihr eure Rolle als Product Owner noch besser erfüllen könnt. Häufige Stolperfallen: Warum Anforderungen oft scheitern Bevor wir ins Eingemachte gehen, kurz zu den typischen Stolperfallen. „Klare Anforderungen“? Klingt gut, scheitert aber sehr häufig an der realen Praxis. ...

Rebellieren für den Wandel: die 8 Regeln des totalen Stillstandes von Prof. Dr. Peter Kruse

In einem legendärem Vortrag skizzierte Peter Kruse 8 Regeln des totalen Stillstands. Ihm zufolge wurden die Regeln entwickelt, um Managern und Führungskräften dabei zu helfen, Bereiche mit potenziellem Widerstand gegen Veränderungen zu erkennen und Menschen auf strukturierte Weise durch den Veränderungsprozess zu führen.

Pragmatisch oder nur “Quick and Dirty”?

“Wir müssen aber pragmatisch vorgehen”, drängt der Kollege. Hm… Im Wörterbuch finde ich für “pragmatisch” in etwa: sachbezogenes, praktisches Handeln. Klingt gut. Leider zeigt sich in meinen Erfahrungen, dass pragmatisch für viele doch eher “quick and dirty” bedeutet. Es soll schnell fertig werden. Aber auf welche oder wessen Kosten? Wo ist die Grenze? Warum steht “praktisch” im Konflikt mit einem langfristigen “Nützlich”? Muss das sein?

Und jetzt alle zusammen! Teams - OneNote - Aufgaben - To Do

Ein Meeting jagt das nächste. Sich da nicht zu verzetteln, wird  im Zeitalter virtueller Besprechungen  noch anspruchsvoller. Kein Wunder, dass  im Zusammenhang mit Microsoft 365  zwei Fragen besonders häufig auftauchen: Wie dokumentiert man Besprechungen gut? Was hilft, offene Aufgaben nachzuhalten? Eine gute Lösung: Das in MS Teams integrierte OneNote-Notizbuch als gemeinsame Plattform auch für den Aufgabenüberblick zu nutzen.

Kategorien in Outlook - für das Team nutzen

Kennen Sie die Kategorien in Outlook? Nutzen Sie diese? Wenn ja wofür? Wenn ich diese Fragen im Seminar stelle, sehe ich oft hochgezogene Augenbrauen. Kaum jemand weiß, was man eigentlich mit diesen Kategorien machen kann und wofür sie nützlich sind. Dieser Blogartikel stellt sie Ihnen vor.

5 Gründe, warum wir jetzt über die Zukunft nachdenken sollten

Wer hätte im Jahr 2019 gedacht, dass so viele Menschen heute im Home-Office arbeiten können und dass die Firma trotzdem funktioniert? Wer hätte damals gedacht, dass wir heute wie selbstverständlich KI-Werkzeuge nutzen können? Ich will mich nicht der Aussage anschließen, dass sich die Welt immer schneller dreht. Es ist egal, wie schnell sie sich dreht, weil es sich immer lohnt, über die Zukunft nachzudenken. Und das muss nicht kompliziert sein.

Meetings in Scrum Teams: Mehr Fokus, weniger Kontextwechsel

  Meetings in Scrum Teams: Mehr Fokus, weniger Kontextwechsel  „Wir arbeiten agil“ – das bedeutet für viele von uns: Daily Stand-up am Morgen, dann Refinement, dazwischen eine Demovorbereitung, später noch ein kurzes Scrum of Scrums (SoS) und am Nachmittag ein Community-Meeting. Gleichzeitig soll ich an meinen Sprint-Aufgaben arbeiten. Wenn dir diese Situation bekannt vorkommt, les dir gerne meinen Beitrag an. Hier sprechen wir über den Einfluss von häufigen Kontextwechseln auf die Arbeit in agilen Teams und zeigen Best Practices, um diese Wechsel zu minimieren. Viel Spaß & Let’s grow, Michi.  Foto von Matt Bero auf Unsplash