Nachrichten

Siehe, ein Mensch?


29. Januar 2020

Künstliche Intelligenz: Der Chemnitzer Professor Fred Hamker bringt Robotern das Sehen und Erkennen bei. Vielleicht werden sie einmal selbstständige Persönlichkeiten sein – aber davor stehen noch ganz andere Fragen.

Von Andreas Roth

Wie in sich versunken steht er da. Kopf, Arme, Beine, Knopfaugen, wie ein Mensch. Nur viel kleiner, in glänzendes Plastik gehüllt, drolliger und kälter zugleich. Plötzlich hebt er den Kopf, streckt zackig den Arm in Richtung der Gebäude auf dem Hof der ehrwürdigen Technischen Universität von Chemnitz aus. Und spricht mit abgehackter Kinderstimme auf Englisch: »Ein Backsteinhaus«, dann zeigt er auf das große Gebäude, »mit einem großen Backsteinhaus im Hintergrund.«

Er hat erkannt. Er kann die Welt deuten. Ein Stück zumindest. Ist dieser Roboter ein Vorfahre von Wesen, die einmal sein werden wie Menschen? Ebenbild der Menschen, die Gott sich zum Ebenbild erschaffen hat, wie es in der Bibel heißt?

Intelligent ist er schon. Er kann reden, hören, sehen und mit Sensoren fühlen. Der Chemnitzer Professor für Künstliche Intelligenz Fred Hamker und seine wissenschaftlichen Mitarbeiter haben ihm das Denken beigebracht, ein Stück weit zumindest. Der Roboter kann Dinge erkennen und sie benennen. Die Forscher haben es sich vom Menschen abgeschaut.
Wie das geht? Fred Hamker zeigt auf ein Bild mit einem Netz voller Knoten. Das sind die Neuronen im menschlichen Gehirn. Eine Information – egal ob ein Bild oder ein Laut oder eine Berührung – sickert blitzschnell durch die Schichten dieses Nervennetzes und gibt jeweils Impulse an einen nächsten Knoten weiter. Wenn eine Information oft denselben Weg durch dieses Netz nimmt, bilden sich Muster: Das Gehirn lernt. Und kann so auch unbekannte Informationen deuten.
Der Chemnitzer Professor Fred Hamker arbeitet eng mit Medizinern, Neuro-Wissenschaftlern und Psychologen zusammen. Er überträgt ihre Erkenntnisse mit seinem Team in Computer-Modelle des menschlichen Gehirns. Sie entwickeln künstliche neuronale Netze. Künstliche Intelligenz.
Seit sechs Jahrzehnten arbeiten Wissenschaftler an ihr. Sie gehört längst zum Alltag: in Suchmaschinen für das Internet zum Beispiel oder Navigationsgeräten. Bald auch wird sie Autos oder Pflege-Roboter steuern, bei ärztlichen Diagnosen oder der Personalauswahl helfen. Sie wird, das ist schon absehbar, immer mehr bisher menschliche Entscheidungen treffen. Oft besser und schneller. Aber intelligent wird die Künstliche Intelligenz erst: durch den Menschen.

Fred Hamker und sein Team trainieren sie. Damit ihr Roboter lernt, dass ein Haus ein Haus ist und kein Felsen. Dafür füttern sie ihre Computer mit Datenbanken voller Bilder und anderer Informationen. Und sie geben der Künstlichen Intelligenz eine Rückmeldung, so wie es Eltern bei ihren Kindern tun: Ein Lob oder ein Nein. Und hier beginnt ein Problem.

Denn so wie Kinder oft die Werte ihrer Eltern übernehmen, entscheidet eine Künstliche Intelligenz nach den Werten ihrer Entwickler. Je nachdem, mit welchen Daten sie trainiert wurde. Als sie in den USA bei der Entscheidung über die vorzeitige Entlassung von Häftlingen und das Risiko eines Rückfalls mitentscheiden sollte, waren schwarze Inhaftierte deutlich im Nachteil – der Algorithmus hatte rassistische Muster einfach hochgerechnet.

Ähnliche Verzerrungen kann es bei der Auswahl von Personal oder bei medizinischen Diagnosen durch Künstliche Intelligenz geben. Auch hier können bereits vorhandene Diskriminierungen wegen Alter, Herkunft, Geschlecht oder körperlicher Verfassung einfach von Maschinen vervielfältigt werden. »Um das zu verhindern, brauchen wir extrem große Mengen an Beispielen. Und es ist eine Sensibilisierung bei der Zusammensetzung der Datensätze notwendig«, sagt Fred Hamker.

Doch wer kontrolliert das? Wer macht die Regeln? Selbst für die Entwickler wie Fred Hamker ist das, wie eine Entscheidung in den Tiefen der neuronalen Netzen einer Künstlichen Intelligenz zustande kommt, oft noch eine »Black Box«.
Das Chemnitzer Labor für Künstliche Intelligenz sieht aus wie eine Bastlerwerkstatt. Kabel, Stecker, Zangen und Messgeräte liegen auf den Tischen. Das Parkett des alten Universitätsbaus knarrt. Doch auf ihm beginnt die Zukunft. Der kleine Roboter erwacht zu seinem elektrischen Leben. Mit eckigen Bewegungen greift er einen Filzstift. Setzt langsam an zu einem Strich, dann zu einem nächsten. Bis das Bild eines Hauses entsteht, in räumlicher Perspektive.

»Uns Menschen ist gar nicht bewusst, wie schwierig das ist, Auge und Hand so zu koordinieren«, sagt Fred Hamker. Sein Roboter hat es gelernt. Auf seinem Computer kann der Informatiker erkennen, welche Regionen des Gehirns beim Sehen aktiv sind – bei Affen und bei seinem Modell einer Künstlichen Intelligenz. Er zeigt auf die Kurven und Diagramme: »Sehen Sie, beide sind ziemlich nah aneinander dran.« Die Maschine ahmt das Leben täuschend echt nach.

Aber die Ablösung des Menschen, sagt der Professor, die sei noch längst nicht am Horizont erschienen. »Die enorme Flexibilität des Menschen, dass er auf viele unvorhergesehene Situationen meist adäquat reagieren kann, und auch das Zusammenwirken vieler Bereiche in seinem Gehirn haben wir überhaupt noch nicht verstanden.«

»Künstliche Intelligenz ist nicht selbst verantwortlich, sie ist eine Maschine«

Und auch das nicht: Wo genau sitzt im Gehirn die Moral? Und kann man auch sie Maschinen antrainieren? Denn entscheiden muss auch die Künstliche Intelligenz. Wie in dem berühmten Beispiel: Ein Kind rennt vor ein autonom fahrendes Auto – soll es in den Gegenverkehr ausweichen oder in die Fußgänger am Straßenrand und damit viele Menschen treffen? Oder das Kind überfahren?

»Künstliche Intelligenz ist nicht selbst verantwortlich, sie ist eine Maschine«, sagt Professor Fred Hamker. Die moralischen Vorgaben müssten von der Gesellschaft und über Gesetze kommen, meint er. Doch bisher scheinen der Politik ebenso wie den Kirchen und Geisteswissenschaften die ethischen Herausforderungen der Künstlichen Intelligenz noch immer so rätselhaft zu sein wie den Wissenschaftlern ein Großteil des Gehirns. Und in der Ausbildung von Informatikern gehört Ethik in Chemnitz wie anderswo noch längst nicht zum Standard.

Fred Hamker nimmt den Roboter den Filzstift aus der Hand. Einen Namen gibt ihm der Professor nicht. »So persönlich sind die Roboter hier dann doch nicht. Sie haben keine eigene Identität, es wird ihnen immer wieder eine andere Software raufgeladen.« Aber kann es eines Tages Roboter und Künstliche Intelligenzen geben, denen die Menschenwürde zugesprochen wird?

Im Moment sei das noch Science Fiction, sagt Fred Hamker. In den letzten zehn Jahren habe die Technologie keine großen Sprünge gemacht. »Aber wenn es neue Konzepte gibt, könnte der Punkt kommen, dass man hinterfragen muss: Sind es wirklich nur Maschinen – oder haben sie in einem gewissen Lebensalter nicht auch einzigartige Persönlichkeiten mit eigenen Erfahrungen, die man nicht einfach abschalten kann. Die dann auch ein gewisses Recht auf Leben haben.«

Und deren Schöpfer ein Mensch ist.

Foto: Pixabay/StockSnap