13. September 2023

Künstliche „Dummheit“ – Verantwortung und Grenzen von KI

Die Frage nach der Verantwortung von Verhalten verschiebt sich gerade, weil wir selber nicht mehr verstehen, wie eine Maschine auf der Basis von Softwareprogrammen zu Entscheidungen kommt. Da passiert etwas, was wir gerne mit „künstlicher Intelligenz“ umschreiben, weil wir es selbst nicht nachvollziehen können und es immer mehr Anwendungsfälle wie Navigation, Bilderkennung oder Suche in großen Textmengen gibt, in denen uns ein Algorithmus überlegen ist.
pexels-tara-winstead-8849295

Geschrieben von: Prof. Dr. Harald Henzler
Lesedauer: ca. 10 Minuten

  1. Vor Ihnen liegt ein Messer. Sie können damit Ihr Mittagessen einfacher zu sich nehmen oder einen anderen Menschen verletzen. Die Verantwortung für das Verhalten wird immer Ihnen zugesprochen, nie dem Messer.
  2. Sie haben zum Schutz Ihres Hauses eine Selbstschussanlage installiert, die mit Hilfe zahlreicher Sensoren visuelle, akustische, seismographische, olfaktorische und mehrere andere Signale aufnimmt, klassifiziert, miteinander in Verbindung setzt und Schlussfolgerungen ableitet. Die Anlage erschießt in einer Nacht 3 Katzen, 2 Hunde, einen Einbrecher und einen betrunkenen Jugendlichen.
    Wer trägt die Verantwortung, wenn das Gericht in Bayern, in Texas oder im Donbass liegt?

Die Beantwortung dieser Frage soll uns helfen, die Grenzen sogenannter „künstlicher Intelligenz“ besser zu erfassen. Sie hilft uns auch bei der Einschätzung, ob ChatGPT wirklich alle Arbeitsplätze ersetzen wird oder nicht, ob DALL E 2 kreativer ist als wir.

„Künstliche Intelligenz“ ist nicht „verantwortungsvolles Handeln“

Das Thema „KI“ hat Hochkonjunktur, weil Softwareprogramme

  • große Datenmengen verarbeiten und uns für bestimmte Situationen Lösungen vorschlagen, die wir nicht so schnell und präzise erarbeiten könnten (z.B. in der Medizin, bei der Navigation, Gesichtserkennung etc.) und
  • wir nicht mehr nur regelbasierte Vorgaben machen, sondern von supervised und unsupervised machine learning sprechen, d.h. dass die Softwareprogramme selbständig aufgrund der ihnen zugespielten Daten zu Lösungsvorschlägen kommen und wir den Weg nicht mehr genau nachvollziehen können.

Das heißt, dass Sie bestimmte Leistungen (rechnen, übersetzen etc.) besser als das menschliche Gehirn erbringen und sie dabei „lernen“. Und an diesem „lernen“ hängen wir uns gerade auf, weil wir prognostizieren, dass diese „KI“ jetzt Dinge machen wird, die wir nicht mehr verstehen. Wir haben scheinbar wie Frankenstein ein Monster erschaffen, das sich unabhängig von uns zum Negativen entwickelt – anstatt den Tod zu überwinden.

Dass die Software „lernt“, heißt noch nicht, dass sie eigenständig, selbstbewusst und zukunftsorientiert handeln kann.

Relativieren wir den Begriff „künstliche Intelligenz“. Intelligenz ist mehr als ein IQ-Test und es macht Sinn zu sagen, „dumm“ ist, wer nicht die Fähigkeit hat, eigenständig zu entscheiden. Denn ziehen wir den Stecker und füttern das Programm mit den entsprechenden Daten, so kommt das heraus, was wir als Kontext setzen: „garbage in – garbage out“, heißt es beim machine learning. Wer Mist reinsteckt, erhält auch nur Mist. KI ist ein selbstreferenzielles System, in dem man wie in einem Bild von Escher in der eigenen Schleife bleibt.

Wer einem Softwareprogramm „Bewusstsein“ zusprechen will, muss in der Folge auch die rechtsphilosophische Frage nach der „Schuldfähigkeit“ beantworten. Es wäre ein Quantensprung, den ChatGPT und andere KI-basierte Programme machen müssten, um auch nur annähernd vor Gericht denselben Status wie ein fünfjähriges Kind zu erhalten. Ich sehe diesen nicht, auch in Zukunft nicht.

„Intelligenz“ umfasst eben auch, moralische Entscheidungen abzuwägen, die eigenen Emotionen steuern können oder eine kritische Kommunikationssituation angemessen zu moderieren – und einiges mehr. Das heißt aber auch, dass man einem Algorithmus nur das zugesteht, was er kann, nämlich die Verarbeitung großer Contentbestände mit Hilfe mathematischer Fähigkeiten, vor allem der Statistik.

Intelligenz ohne Moral?

Greifen wir wieder unser Beispiel vom Messer und der Selbstschussanlage auf. Beide sind vom Menschen erschaffene Artefakte, die ihm das Leben erleichtern sollen. Bei beiden kann der Schuss im wahrsten Sinne des Wortes nach hinten losgehen, wenn man sie falsch einsetzt. Deshalb organisieren sich alle Stammesgemeinschaften, Völker, Gruppen von Menschen mit Hilfe ausgefeilter Regeln. Diese Regeln betreffen den Gebrauch aller Artefakte, von Werkzeugen über Waffen bis zur Kleidung. Die Regeln werden in langwierigen, aufwändigen Prozessen gelernt, angepasst, weitergegeben. Wir sprechen dann von Werten, die wir für so wichtig und richtig erachten, dass wir sie an unsere Nachkommen weitergeben – egal ob diese das wollen oder nicht. Wir sprechen dann von Kultur.

Intelligent ist, wer diesen Prozess sinnvoll gestalten kann.
Übertragen auf unser Beispiel heißt das, dass eine Selbstschussanlage

  1. bestimmte Signale besser als ein Mensch registrieren kann: Sie kann z.B. andere Frequenzen „hören“, bei Nacht „sehen“ etc., das heißt mehr Informationen, genauer und präziser registrieren.
  2. schneller kategorisieren kann: Sie kann z.B. durch den Vergleich mit verschiedensten Datenquellen wie Bildern von Tieren, Gerüchen, Bewegungsabläufen oder Geräuschen schneller die richtigen Bezüge herstellen und statistisch eine Hochrechnung machen, um was es sich handelt.
  3. in „Echtzeit“ nie dieselben Informationen haben wird wie ein Mensch in derselben Situation, sondern abhängig von den Datenquellen immer nur auf vorhandene Daten zurückgreifen wird.
  4. die Informationen nie „emotional“ bewerten können wird, weil ihr die Prägung aller Wahrnehmung durch das limbische System fehlt und damit die Fähigkeit, ein Verhalten immer im Kontext einer menschlichen Gemeinschaft zu bewerten.
  5. keine Regeln aufstellen kann für eine menschliche Gemeinschaft dafür, ob Tiere oder Menschen verwundet oder getötet werden dürfen – und welche Werte an die nächste Generation weitergegeben werden sollten.

So gesehen kann eine Selbstschussanlage im besten Fall 2 von 5 Punkten erreichen und wäre bei einem „Intelligenztest“ erstmal durchgefallen. Wir sollten sie deshalb in Zukunft auch „dumm“ nennen dürfen, denn anders als in der Mathematik ergeben „künstliche Dummheit“ und „menschliche Dummheit“ zusammen leider immer noch keine Intelligenz.

Für den richtigen Einsatz von Messern, Selbstschussanlagen, ChatGPT oder Dall E 2 gelten also nach wie vor ein paar Regeln. Es vergeht kaum ein Tag, an dem nicht ein Anbieter von KI-basierten Werkzeugen davor warnt, zu hohe Erwartungen bei fehlender Datenlage zu haben. Über die Implementierung von KI in Unternehmen lassen sich beispielhaft drei Grundregeln zusammenfassen:

  • Transparenz über die Quelle der Daten ist die Voraussetzung für den Einsatz von digitalen Werkzeugen. Niemand würde eine Selbstschussanlage abnehmen, wenn nicht klar ist, welche Daten auf welcher Basis erfasst, kategorisiert und interpretiert werden.
  • Vertrauen in die Überprüfung der Systeme ist nur möglich, wenn jemand in regelmäßigen Abständen das Funktionieren überprüft und zur Rechenschaft gezogen werden kann, wenn etwas nicht funktioniert.
  • Verantwortung kann nur der übernehmen, der ein System produziert und einsetzt. Für den richtigen Gebrauch des Messers, der Selbstschussanlage oder von ChatGPT muss man den Nutzer und die Produzenten rechtlich und moralisch anklagen und freisprechen können. Denn der Mörder war im Zweifelsfall nicht das Messer.

Die Verantwortung für den Einsatz von KI hat der Mensch. Sie beginnt bei den „Schöpfern“ und endet bei denen, die sie einsetzen.

Und das Katz-und-Maus-Spiel hat schon längst begonnen bei der Frage, welche Rahmenbedingungen man der KI-gestützten Software gibt. Denn wenn die Trainingsdaten aus so vielen Äußerungen der Menschen über sich selbst im Internet gezogen wurden, so wurden auch (fast) alle menschlichen Verhaltensweisen als Vorlage genommen – die guten wie die schlechten. So verbreitet ChatGPT natürlich Fake News und betrügt den Anwender.

Man muss an Karl Valentins Ausspruch denken, Erziehung sei zwecklos, weil die Kinder einem eh alles nachmachten. Wie bei jeder Technologie kann die Frage nach der „Schuld“ durch fehlerhaften Einsatz nur bei Menschen liegen, die daran beteiligt sind.

Prof. Dr. Harald Henzler

Harald Henzler verantwortet als Professor für Digitale Kommunikation und Change an der Internationalen Hochschule SDI den Studiengang Digital Media Manager.

Als Geschäftsführer der smart digits GmbH begleitet er Unternehmen bei der Entwicklung der Digitalstrategie. Als Produktmanager, Verlagsleiter und Geschäftsführer (Carl Hanser Verlag, Haufe Lexware) hat er langjährige Erfahrungen in der Entwicklung und Umsetzung digitaler Geschäftsmodelle.

Er hat mit Partnern eigene Start-ups gegründet und coacht im Rahmen von CONTENTshift Start-ups und begleitet den Dialog mit den Verlagen.

Teile diesen Post:
Facebook
Twitter
LinkedIn
WhatsApp

Entdecke weitere Beiträge