Highlights & News
Lernende Maschinen
Expert:innen des Forschungszentrums Jülich nutzen KI beispielsweise, um Wettervorhersagen und Unwetterwarnungen zu verbessern. Auch wenn die Prognosen im Lauf der Jahre immer präziser geworden sind: Einzelne Orte frühzeitig vor Starkregen oder lokalen Gewitterzellen zu warnen, fällt den Meteorologen noch immer schwer. Das liegt unter anderem an der relativ groben Auflösung der regionalen Wettermodelle des Deutschen Wetterdienstes (DWD). „Alles, was kleiner als zwei Kilometer ist, fällt durch das Raster. Das Modell sagt dann zum Beispiel, es regnet in einem zwei mal zwei Kilometer großen Gebiet – auch wenn sich in der Realität in dem Gebiet blauer Himmel und Regen abwechseln. Um Niederschläge lokal verlässlich vorherzusagen, genügt das meist nicht“, erklärt Dr. Martin Schultz.

Das Muster des Regens
Für die Mustererkennung bei der verbesserten Wettervorhersage, setzt Martin Schultz auf eine fortgeschrittene Art des maschinellen Lernens, das Deep Learning: „Die Wetterdaten tragen komplexe zeitliche und räumliche Muster in sich. Welche davon typisch für Starkregen sind, wissen wir nicht. Wir füttern daher die Software mit möglichst vielen Daten, sie sucht selbst nach Mustern und erstellt dann Prognosen“, so Schultz. Er und seine Kollegen können aber am Ende prüfen, ob die Prognose der KI korrekt ist, es also an dem Tag heftig regnete, und das der Software zurückmelden. Durch ständiges Wiederholen „lernt“ die KI so, welche Muster Starkregen am besten vorhersagen.
Die Funktionsweise des Deep Learning ähnelt grob den Lernprozessen unseres Gehirns. Dort sind Abermilliarden von Nervenzellen untereinander verknüpft. So leiten sie Informationen weiter und verarbeiten sie. Wenn wir lernen, nutzen wir bestimmte Verbindungen zwischen Nervenzellen immer wieder und verändern so die Vernetzung zwischen den Zellen: Bei Kindern, die viel lesen, verstärken sich beispielsweise die Verbindungen zwischen den Bereichen im Gehirn, die für Sehen, Hören und Sprache zuständig sind. Bei professionellen Badmintonspielern verändert sich die Vernetzung der Gehirnregionen, die Sehen und Bewegung koordinieren.
Deep Learning nutzt einfache mathematische Einheiten, deren Aktivität grob der von Nervenzellen im Gehirn entspricht: Sie sind ebenfalls über Ein- und Ausgabeverbindungen miteinander verknüpft und empfangen Informationen von anderen Einheiten, die sie verarbeiten und weiterleiten. Sie funktionieren aber erheblich einfacher als die biologischen Vorbilder. Organisiert sind die mathematischen Einheiten in Schichten.

Tausende Schichten
„Tiefe Netze fürs Deep Learning besitzen mitunter Hunderte bis Tausende Schichten, in denen die Daten verarbeitet werden“, erklärt Dr. Jenia Jitsev, der sich am Jülich Supercomputing Centre mit der Architektur solcher Modelle beschäftigt. Bei der Gesichtserkennung ist es beispielsweise so, als würde das Eingangsbild eine Vielzahl von Filtern durchlaufen, die auf immer komplexere Muster ansprechen. Die erste Schicht nimmt zum Beispiel nur Helligkeitswerte wahr. Tiefere Layer reagieren auf Kanten, Konturen und Formen – ganz tiefe Schichten schließlich auf individuelle Merkmale von menschlichen Gesichtern.
„Tiefe neuronale Netzwerke benötigen möglichst viele verschiedene Beispiele fürs Training: je mehr unterschiedliche Beispiele, desto erfolgreicher das Lernen“, sagt Jitsev.
Individuelle Prognosen
Besonders wichtig ist diese Testphase, wenn es um sensible Daten geht – Daten, die über das Schicksal von Menschen entscheiden: etwa Auswahlverfahren bei Bewerbungen, die Einschätzung der Kreditwürdigkeit oder ärztliche Diagnosen. Mit Letzteren beschäftigt sich der Mediziner Prof. Simon Eickhoff vom Institut für Neurowissenschaften und Medizin (INM-7). Er hofft, irgendwann mithilfe von KI Muster im Gehirn von Menschen mit psychologischen und neurologischen Erkrankungen zu finden, um sie gezielt und individuell behandeln zu können. Computerprogramme sollen in Hirnscans zum Beispiel nach Mustern fahnden, die Aufschluss darüber geben, wie wahrscheinlich ein Rückfall bei einem Patienten mit Depressionen ist. KI könnte prognostizieren, wie schnell die Beeinträchtigungen einer Person mit Morbus Parkinson voranschreitet oder ob ein Patient besser mit Medikament A oder Medikament B behandelt werden sollte.

Das Gesamtmuster zählt
Bis dahin ist der Weg aber noch weit. Eickhoff und sein Team sind schon dabei, KI mithilfe der Mustererkennung bestimmte Informationen aus Hirnscans gewinnen zu lassen: Im Augenblick stehen kognitive Leistungen und Persönlichkeitseigenschaften wie Offenheit, Geselligkeit und emotionale Stabilität im Mittelpunkt. Dazu haben Eickhoff und sein Team Maschinenlern-Programme mit den Gehirnscans von Hunderten Personen trainiert. Von diesen Probanden werden bestimmte psychologische Kenngrößen mit eingegeben, etwa die Reaktionszeit in einem standardisierten Test. Hat das Modell genügend Daten gesehen, kann es allein anhand der Gehirnbilder auf die Reaktionszeit eines neuen Individuums schließen. „Unsere Algorithmen suchen allerdings nicht nach Einzelaspekten in den Bilddaten. Wir können nicht sagen: Bei Menschen mit einem guten Arbeitsgedächtnis sind bestimmte Areale im Gehirn überdurchschnittlich groß. Vielmehr ist das Gesamtmuster ausschlaggebend“, sagt Eickhoff.
Komplexere kognitive Fähigkeiten, wie etwa Reaktionszeiten oder die Kapazität des Arbeitsgedächtnisses, lassen sich relativ verlässlich mit KI aus den Gehirnscans ableiten, so der Hirnforscher. Bei Persönlichkeitseigenschaften stimme die Vorhersage zwar auch tendenziell, aber die Genauigkeit sei hier noch nicht so gut. Das zeigt die Qualitätssicherung mit Daten, die die KI noch nicht kennt: Sie trainiert nämlich immer nur mit einem Teil eines Datensatzes, den Rest nutzen die Forscher, um zu prüfen, wie gut die KI nach einer Lernphase die Persönlichkeitsmerkmale vorhersagt.
Bereits sehr gute Ergebnisse liefert die KI bei der Vorhersage von Alter und Geschlecht: „Hier kann unser Programm mit neunzigprozentiger Sicherheit angeben, ob das Gehirn einer Frau oder einem Mann gehört. Beim Alter liegen wir in einem Bereich von plus/minus vier Jahren“, berichtet Eickhoff.
Licht ins Dunkel bringen
Die Überprüfbarkeit von Daten wie Alter oder Geschlecht ist vergleichsweise einfach. Schwieriger wird es bei Diagnosen und Prognosen. „Die Akzeptanz der Künstlichen Intelligenz im Gesundheitswesen steht und fällt mit dem Vertrauen, das ihr entgegengebracht wird – sowohl von den Patienten als auch von den Ärzten“, glaubt der Jülicher Experte. Vertrauen basiert zum Teil darauf, dass nachvollziehbar ist, wie eine Diagnose oder ein Ergebnis zustande kommt. KI-Experten vergleichen jedoch ein neuronales Netzwerk beim Deep Learning gerne mit einer Black Box: Man kennt die Eingabedaten und erhält eine Ausgabe. Doch die Vorgänge in den informationsverarbeitenden Schichten dazwischen sind so komplex, dass sich meist nicht nachvollziehen lässt, wie das Netzwerk zu seinen Ergebnissen gelangt. Eine wichtige Aufgabe für die KI-Fachleute sei es daher, in den kommenden Jahren ein wenig Licht in dieses Dunkel zu bringen und die komplexen Muster für uns sichtbar zu machen, die den Ergebnissen der KI zugrunde liegen, sagt Simon Eickhoff. Hoffnung setzen viele Fachleute in dieser Hinsicht auf „Explainable AI“, also die erklärbare Künstliche Intelligenz. Solch eine KI liefert neben dem eigentlichen Ergebnis auch die Kriterien mit, wie sie zu ihrem Schluss gelangt ist. Nicht nur Medizin und Neurowissenschaften würden von solchen Algorithmen profitieren, auch Wettervorhersage, Spracherkennung oder die Steuerung autonomer Autos. „Erst wenn wir erklären können, warum ein Algorithmus seine Entscheidung getroffen hat, werden wir von Maschinen vorgeschlagene Lösungen akzeptieren, die unser Gehirn nicht findet“, so Eickhoff.
KI auf dem Vormarsch
Der Begriff der Künstlichen Intelligenz wurde bereits im Jahr 1956 auf einem mehrwöchigen Workshop am Dartmouth College in New Hampshire geprägt. Erste Konzepte zu künstlichen neuronalen Netzwerken existierten zu dieser Zeit bereits. In den 1970er Jahren setzte dann allerdings der lange „KI-Winter“ ein: Die Forschung stagnierte, da es sowohl an Rechenleistung als auch an ausreichenden Trainingsdaten mangelte. Ungefähr zur Jahrtausendwende begann dann die Renaissance des maschinellen Lernens.
„Erst Big Data und die Fortschritte bei lernenden Algorithmen haben die gegenwärtigen Fortschritte der künstlichen neuronalen Netzwerke möglich gemacht“, sagt der Deep-Learning-Experte Dr. Jenia Jitsev vom Jülich Supercomputing Centre. Denn je mehr Daten, desto mehr Beispiele, mit denen ein künstliches neuronales Netzwerk trainiert werden kann. Und je intensiver das Training, desto besser kann ein Netzwerk neue Beispiele korrekt einordnen, die es zuvor noch nie gesehen hat. Solche selbstlernenden KI-Algorithmen sind allerdings sehr rechenintensiv. „Hier profitieren wir von der gestiegenen Leistungsfähigkeit und der gewachsenen Speicherkapazität moderner Hochleistungscomputer, die speziell für den Umgang mit solchen Algorithmen und riesigen Datenmengen entwickelt wurden.“ In solchen Hochleistungscomputern stecken neben herkömmlichen Prozessoren (CPUs) viele Grafikprozessoren (GPUs). GPUs haben zwar langsamere Rechenkerne als CPUs, aber dennoch einen entscheidenden Vorteil: Sie verfügen anders als CPUs über Tausende von Rechenkernen, die einfache Rechenoperationen parallel mit großer Effizienz durchführen können. Ideal für die Arbeitsweise der neuronalen Netzwerke und des Deep Learnings: bei diesen müssen während des Trainings eine Vielzahl solcher Operationen immer wieder durchgeführt werden.
Zu den immer leistungsfähigeren Rechnern kommt hochwertige Software: „Mittlerweile stehen viele unterschiedliche Open-Source-Werkzeuge zur Verfügung.“ Die drei Voraussetzungen Big Data, leistungsfähige Hardware und passende Software haben die KI nun endgültig aus ihrem langen Winterschlaf erwachen lassen.
Copyright Fotos: Forschungszentrum Jülich/Sascha Kreklau, Forschungszentrum Jülich/TRICKLABOR, Forschungszentrum Jülich/Ralf-Uwe Limbach, Bernd Struckmeyer
Beitrag aus effzett-Magazin 3-19: „Lernende Maschinen“