
#Gedankenspiele @AKAD |Nr. 4|
Künstliche Intelligenz und Bewusstsein: Wieso jetzt? Was kommt? Was tun?
Die Künstliche Intelligenz (KI) entwickelt sich weiter und wird schon in vielen Bereichen eingesetzt. Darum müssen nun Grundsätze her und noch einige drängende Fragen geklärt werden, sagt Prof. Dr. Andrea Herrmann und lädt hiermit zu Gedankenspielen ein.
Wieso jetzt?
Schwache KI wird schon eingesetzt, ob sie Gurken oder Bewerbungen sortiert, Röntgen- oder Katzenbilder klassifiziert. Das gelingt ihr immer besser. Dies weckt die Hoffnung, dass die KI die menschliche Urteilskraft irgendwann übertrifft, dass sie gerechter und objektiver urteilt. Dass sie Muster, Zusammenhänge und Regeln erkennt und berücksichtigt, die dem menschlichen Entscheider bisher entgangen sind.
Bei einem regelbasierten Entscheidungssystem trägt der Hersteller die Verantwortung für die Entscheidungen des Systems und für deren Folgen. Irrigerweise wächst die Hoffnung, dass man diese Verantwortung vollständig an die selbstlernende Maschine abgeben könne. Es fragt sich, ob eine solche Übergabe reversibel wäre. Spätestens wenn die letzten menschlichen Profis zu lange aus ihrem Beruf heraus sind, um sich wieder einzuarbeiten, holen wir Menschen uns den Job kaum noch zurück.
Dabei sind ja nicht nur Erfolgsmeldungen über KI-Entscheidungen bekannt, sondern auch Geschichten von Systemen, die menschliche Fehlentscheidungen – wie z. B. diskriminierende Urteile – replizieren. Oder die durch Überanpassung an die Trainingsdaten nicht dazu fähig sind, ihre scheinbare Klugheit auf neue Fälle zu übertragen. Sie haben dann eben nicht die Regeln verstanden, sondern nur Präzedenzfälle auswendig gelernt. Darum ist jetzt der Moment, um zu entscheiden, wo wir KI einsetzen wollen, dürfen oder sollten – und wo definitiv nicht.
Was kommt?
KI wird zweifellos in immer mehr Bereichen eingesetzt werden. Vieles kann sie besser als wir: umfangreiche Datensätze auswerten, Schlussfolgerungen ziehen, verallgemeinern, … Irgendwann gibt es sicher auch die bewusste KI, die zu Metagedanken sich selbst beobachtet, ihre eigenen Urteile bewertet und korrigieren kann. Doch wollen wir wirklich, dass sich die KI unserer Kontrolle entzieht? Dass sie selbsttätig diejenigen Entscheidungen trifft, vor denen wir uns drücken? Wer entscheidet, der übernimmt Verantwortung für die Folgen. Doch wie könnte eine Maschine Verantwortung für das Schicksal von Menschen übernehmen, wenn ihr Gefühle und Mitgefühl fehlen, also die Voraussetzungen für ethisches Handeln?
Auch wenn der Computer behauptet:
„Ich weiß, wie du dich fühlst“, so weiß er es eben nicht.
Leider geht es letztlich im ökonomischen Umfeld weniger um Ethik, sondern vielmehr um Kosteneinsparungen. Einem Unternehmenschef ist es relativ egal, wenn eine ausgezeichnete Bewerberin nicht als solche erkannt und nur der Zweitbeste auf die Stelle eingestellt wird, wenn man sich gleichzeitig die händische Sichtung von 120 Mappen einspart. Je mehr auch der Staat unter Kostendruck steht, umso mehr ersetzt man auch Richter, Altenpfleger, Finanzbeamte oder Lehrer durch Maschinen. Und in diesen Berufen sollten keine Ungenauigkeiten vorkommen.
Anders als bei einem regelbasierten System, wo man eine Fehlentscheidung zweifelsfrei im Quellcode nachvollziehen kann, entzieht sich die Denkweise einer KI der direkten Betrachtung. Man kann zu einem späteren Zeitpunkt die Fehlentscheidung nicht mal nachspielen, weil die KI inzwischen dazu gelernt und sich weiterentwickelt hat. Das also wird geschehen, wenn wir nicht die Bremse ziehen.
Was tun?
Das Problem ist doch: Einerseits kann KI uns gut bei unserer Arbeit unterstützen, weit über das hinaus, was die Automatisierung bisher ermöglicht. KI kann große Datenmengen verarbeiten, scheinbar verstehen und Entscheidungen treffen. Dadurch sparen nicht nur teure Mitarbeiter Zeit, man kann sich sogar die Mitarbeiter ganz einsparen. Andererseits wird so die Verantwortung für Entscheidungen und in vielen Fällen auch für Schicksale an eine seelenlose Maschine abgegeben. Eine Maschine, deren Entscheidungen niemand überwacht oder versteht.
Drei Ansätze könnten aus diesem Dilemma führen:
- Erstens darf, beispielsweise per Gesetz verboten, die Verantwortung für Menschen und deren Schicksale nicht an eine KI abgegeben werden. Eine KI darf eine als defekt erkannte Schraube in den Müll werfen, aber keinen Verbrecher zu einer Haft verurteilen. Sie darf einem Greis kein Medikament verordnen oder Bewerbungsmappen auf Nimmerwiedersehen aus der Auswahl kicken. Sie kann aber sehr wohl aufgrund eines Vergleichs mit früheren Fällen Empfehlungen geben, am besten mit Begründung, um den Richter zu unterstützen. Der Pflegeroboter kann eine Warnung am Display anzeigen. Die KI kann Bewerbungen klassifizieren, um die Übersicht zu erleichtern. Auch die Forschung zur Erklärbarkeit von KI sollte vorangetrieben werden, um dem menschlichen Entscheider nicht nur Empfehlungen, sondern auch Begründungen zu liefern.
Die Entscheidung muss beim menschlichen Experten bleiben. So bilden Mensch und Maschine das ideale Team, in dem jeder das tut, was er am besten kann.
- Zweitens sollte man stets überlegen, ob eine Aufgabe denn wirklich eine KI verlangt. Oft erfüllt ein regelbasiertes System mit ausgefeilten Algorithmen die Aufgabe besser als eine selbstlernende KI. Manchmal sagt eine lineare Regression die Zukunft besser voraus als das neuronale Netz. Und halbwegs intelligentes Verhalten lässt sich mit einem Dutzend Regeln simulieren. Natürlich hängen reale Entscheidungen von zahlreichen Faktoren ab, deren Einfluss man bisher noch nicht ganz verstanden hat. Doch sobald die Frage formuliert ist, kann gezielte empirische Forschung oder Data Science die magische Formel suchen, nach der man aus einer Fallbeschreibung die besten Maßnahmen ableitet. Vorteil dieses Vorgehens ist, dass sich ganz genau nachvollziehen lässt, wie ein Ergebnis zustande kommt. Neuere Forschungsergebnisse können in das Regelwerk integriert werden. Hier sind also Forschung und Anwendung aufgerufen, auch die scheinbar altmodischen Informatik-Techniken wie Regeln und Algorithmen weiter in Betracht zu ziehen, zu erforschen, erproben und einzusetzen. Dann bleibt der Computer ein programmiertes Werkzeug des Menschen.
- Drittens müsste eine KI in einigen Anwendungsgebieten Mitgefühl und ein Bewusstsein haben, also ihr Denken beschreiben und erklären können, ja sogar steuern. Sie müsste zumindest auf ihrem Fachgebiet den Turing-Test* bestehen und so entscheiden, wie die besten Experten des Fachs es tun würden. Dazu müssen menschliche Experten als Trainingspartner und Kontrollinstanz zuarbeiten. Denn auch die KI benötigt eine Ausbildung und regelmäßiges Feedback von Kollegen. Es müssten also KIs entwickelt werden, die sich selbst reflektieren können und ein Bewusstsein besitzen.
* Der Turing-Test ist eine Art mündliche Prüfung, bei der der menschliche Kommunikationspartner nicht unterscheiden kann, ob er sich mit einer Maschine oder mit einem Menschen unterhält.
Prof. Dr. Andrea Herrmann
Prof. Dr. Andrea Herrmann ist seit 2020 Professorin für Software Engineering an der AKAD University und seit 2012 freiberufliche Trainerin und Beraterin für Software Engineering. Sie hat mehr als 20 Berufsjahre in Praxis und Forschung, bis hin zu Vertretungs- und Gastprofessuren. Von ihr gibt es mehr als 100 Fachpublikationen und regelmäßige Konferenzvorträge. Sie ist offizielle Supporterin des International Requirements Engineering (IREB) Board sowie Mitautorin von Lehrplan und Handbuch des IREB für die CPRE Advanced Level Zertifizierung in Requirements Management.
Unsere staatlich anerkannten Studiengänge im Fernstudium
Bachelor
Master
Weiterbildungen

Fragen zum Studium

Kostenloses Infomaterial anfordern