· 

KI - Sind die Computer dem Menschen überlegen?

Prof. Dr. Georg R. Hofmann

 

Was ist KI?

 

KI ist nicht eindeutig definiert. Üblicherweise beschreiben wir damit lernende Maschinen, die mit ihrer besonderen Rechenleistung, mit Daten aus der Vergangenheit, hochwertige Korrelationen zur Zukunft anstellen können. Manchmal werden sie in menschenähnlicher Gestalt (antropomorph) designed. Diskutiert werden die großen maschinellen Systeme im autonomen Fahren, in der Robotik und der Industrie 4.0. Tatsächlich hat sich die KI z. B. im Handel schon längst breit gemacht. Der Onlinehandel oder die Suchmaschinen entwickeln ihre Prognosen mit einer weit entwickelten KI – was auch immer sie praktisch daraus machen und wie hilfreich das (immer?) ist.

 

Humanoide / antropomorphe Systeme sind lediglich äußerlich der menschlichen Gestalt entsprechend. Tatsächlich reagieren Menschen auf die Hülle vielfach mit menschlicher Zuwendung und der Zuschreibung von Menschlichkeit. Da die Fassade aber nicht notwendiger Weise eine Auskunft über ein mehr oder weniger intelligentes Innenleben gibt, sind derartige Phänomene klar als Täuschung zu bezeichnen.

 

Jenseits dieser schon heute relevanten Erfahrungen mit technischen KI-Systemen prognostizierten selbst angesehene Forscher wie Stephen W. Hawkins eine hoch entwickelte KI (starke KI), die sich letztlich den Menschen zum Untertan macht. Solche Aussagen führen aktuell dazu, dass vieles was mit KI bezeichnet und ggf. menschenähnlich verpackt wird, als „intelligent“ im Sinne von „menschengleich“ akzeptiert wird. Nach Lage der tatsächlichen Entwicklung muss die Menschengemeinschaft deshalb aufpassen, sich nicht ohne Not extrem beschränkten normativen Maschinen zu unterwerfen, die weit weg von menschlicher Intelligenz und bewusstem Handeln sind.

 

Was ist der Mensch?

 

Der menschliche Verstand ist bisher nicht verstanden. Das menschliche Gehirn ist nicht annähernd entschlüsselt – deshalb ist es auch nicht möglich das Gehirn zu simulieren oder nachzubauen. Insofern ist KI keine Nachahmung menschlichen Denkens, sondern eine ganz eigenständige Art der technologischen Entwicklung, mit der Teilkompetenzen des Menschen weniger gut, gleich oder besser realisiert werden. Gebaut werden können tatsächlich hoch komplexe neuronale Netze, die selbst lernen und auf sich selbst bezogene Optimierungen generieren. In qualifizierter Weise, können diese aufgrund ihrer selbstreferenziellen Entwicklung menschlich nicht mehr verstanden werden. Insofern liegt die Lösung nicht in der Forderung nach „Offenheit“ oder „Nachvollziehbarkeit“ der Systeme – sie sind nicht mehr nachvollziehbar und das heißt sie sind auch nicht mehr eindeutig vorhersagbar in ihren Aktionen.

 

Die Besonderheit des Menschen ist das bis heute nicht erfasstes Bewusstsein über sich selbst. Dieses Bewusstsein verankert sich als zeitlich überdauerte Kognition mit Sinneswahrnehmungen und Emotionen im Körper und ist in seiner besonderen Qualität nicht entschlüsselt. Wesentliches Element des Bewusstseins ist die Definition von Zeichen und deren Bedeutung (Semiotic). Dies wendet der Mensch auf objektive materielle Gegenstände oder prozessuale Handlungen an, wie sie Teil der menschlichen Regung sind. Diese Interpretation der Wirklichkeit als Sinnzusammenhang ist eine exklusiv menschliche. Es gibt bisher keine Technologie, die tatsächlich Sinn (als Zuschreibung von Bedeutung in einem Kontext oder Prozess) generieren kann.

 

Auch Wissen ist abhängig von Deutung. Damit bleibt das Wissen an Menschen und ihre bewusstseins-abhängige Deutung gebunden. „Intelligente“ Maschinen können aus Kontexten erlernte Bedeutungen entschlüsseln – sie können aber keine Bedeutung erzeugen und damit kein neues Wissen generieren. Die Entwicklung von neuem Wissen bleibt damit dem Menschen vorbehalten.

 

Die Weiterführung dieser Frage läuft auf die Frage hinaus: Wie entsteht Wahrheit? Letztlich ist Wahrheit ein soziales Phänomen, das auf der Übereinkunft der Menschenfamilie (oder Teile davon) beruht. Diese Übereinkunft beruht auf wechselseitigem Vertrauen und kann durch Maschinen nicht generiert werden – weil sie Maschinen und keine Menschen sind.

 

Weiterhin ist Ethik für Maschinen ausgeschlossen, weil sie nicht wissen können (als Sinnverstehen) was sie tun. Sie können lediglich normative Vorgaben reproduzieren (wenn „Marihuana“ gesucht wird, ist das bei einer Kaufanfrage aus dem privaten Raum ein illegaler Akt und ist als solcher zu markieren). Allerdings sind Normen nur ein Teil der ethischen Welt. Normen werden stetig neu ausgehandelt und ggf. verschoben (Kleinstmengen Marihuana zum Eigengebrauch sind von der Strafverfolgung ausgenommen). Zudem definieren wir als Menschen kontextabhängige Ausnahmen von grundsätzlich definierten Normen (anders als vor 20 Jahren ist der Konsum von Marihuana im privaten Raum heute vielfach akzeptiert), die innerhalb einer erweiterten, nicht-normativen Ethik gedeutet – und individuell verantwortet werden. In diesem Sinne gibt es keine Garantie, dass Automaten in jedem Fall die „richtige“ (also ethisch korrekte) Entscheidung“ treffen (am besagten Beispiel stößt „LegalTech“ an seine Grenzen.)

 

So verstandene Ethik geht kontextabhängig über die Norm hinaus. Die Konsequenz daraus ist die technische Eingrenzung der Handlungsfreiheit von technischen Systemen (=normative Automaten), seien sie noch so „künstlich intelligent“. Deshalb muss eine KI jederzeit durch Menschen abschaltbar sein (siehe Boing 737-Max 8 Unglücke mit dem nicht abschaltbaren Autopiloten) oder der Mensch kann zumindest der maschinell erzeugten Aktion durch entsprechende Vorkehrungen ausweichen. Wohin derartig normierende KI-Systeme das soziale Leben letztlich führen, kann man im Rahmen des „social Scoring“ in totalitären Staaten erkennen. Das was menschlicher Eigensinn, Kreativität und Verantwortung ausmacht, lässt sich innerhalb dieser Systeme nicht mehr abbilden – wird also unterdrückt oder – nach menschlichem Ermessen – irrational behandelt.