KI-Allrounder: ethisch, vertrauenswürdig, reproduzierbar

Künstliche Intelligenz (KI) und Methoden des maschinellen Lernens (ML) sind Werkzeuge, die in vielen Disziplinen der Wissenschaft seit langem unverzichtbar sind. Sie erlauben es Rückschlüsse aus Datenmengen zu ziehen, die für Wissenschaftler zu groß für manuelle Prozessierung sind, decken in unübersichtlichen Datenhaufen bisher unbekannte Zusammenhänge auf, helfen bei der Lösung komplexer rechnerischer Prozesse, und vielem mehr.

Im Transfer von wissenschaftlichen Ergebnissen zur konkreten gesellschaftlicher Anwendung soll KI letztlich der Öffentlichkeit zu Nutze sein. In der jüngeren Vergangenheit sind KI Modelle besonders leistungsfähig geworden und haben damit verstärkt Aufmerksamkeit erregt. Mit steigendem Einfluss von KI in der Wissenschaft und Alltag wachsen jedoch auch Bedenken hinsichtlich der Intransparenz, die bei KI Modellen häufig vorliegt, und dem möglichen so-genannten “bias”, der Voreingenommenheit ihrer Ergebnisse.

Um das immense Potenzial von KI verantwortungsbewusst auszunutzen, bedarf es daher Kompetenz auf zahlreichen Ebenen. In unserem Institut werden dafür in unterschiedlichen Gruppen Lösungen entwickelt und in interdisziplinären Projekten miteinander verzahnt. Das INM-7 ist ein “AI-Allrounder”.

Reproduzierbarkeit

Das zur Anwendung gebrachte Ergebnis einer KI-gestützten Analyse ist nur das Endprodukt in einer langen Kette von Analyseschritten. Wichtig ist, dass ein Ergebnis vollständig nachvollbar und reproduzierbar ist. Beginnend bei den Daten, die in das Training eines KI Modells geflossen sind, über die Parameter, die in einzelnen Rechenschritten genutzt wurden, bis hin zu den Kennzahlen, mit denen die Güte des Models an Testdatensätzen bewertet werden kann, muss dazu die gesamte Analyse transparent nachvollzierbar sein. Andernfalls laufen Anwender Gefahr, fehlerhaften Ergenissen eines intransparenten Prozess blind zu vertrauen, entstanden etwa durch methodische Fehler oder Verzerrungen durch die zugrundeliegende Datenbasis.

KI-Allrounder: ethisch, vertrauenswürdig, reproduzierbar
Die Grundlage von reproduzierbaren und vertrauenswürdigen KI Modellen sind nachvollziehbare und reproduzierbare Methoden in jedem Schritt
Basierend auf Scriberia & The Turing Way (CC-BY)

Mehrere open source Software Anwendungen, die in unserem Institut entwickelt werden, vereinfachen reproduzierbare KI. Die Datenmanagementlösungen, die die Gruppe "Psychoinformatik" entwickelt, legen den Grundstein einer reproduzierbaren Datenanalyse. Mit Datenversionierung, Provenienzerfassung, automatischer Neuberechnung bei Bedarf, aber auch Metadatenkatalogen zur Datenfindung, oder dezentralem Datentransport stellen sie flexible Werkzeuge über Anwendungsgebiete hinweg dar. Datenerhebungsinstrumente, wie das JTrack Ökosystem der Gruppe ‘Biomarkerentwicklung’ erweitern die Datengrundlage mittels smartphonegestützter Datenerhebung. Und die junifer Bibliothek, entwickelt im Team ‘Forschungs- und Infrastruktursoftwareentwicklung für maschinelles Lernen’, vereinfacht automatisierte Feature Extraktion aus häufig genutzten Bildgebungsdatentypen.

Vertrauenwürdigkeit

Reproduzierbarkeit allein ist jedoch nicht ausreichend – KI-gestützte Forschung muss auch vertrauenswürdig und robust sein. Das bedeutet Methoden und Ergebnisse, die biasfrei sind, und konsequent auf Generalisierbarkeit geprüft werden. Die Arbeitsgruppe ‘Kognitive und klinische Neurowissenschaft” untersucht in ihrer Arbeit unter anderem die Fairness von KI Modellen, um Anwendungen vor Verzerrungen zu bewahren.

Die Arbeitsgruppe “Angewandtes maschinelles Lernen” und das Team “Forschungs- und Infrastruktursoftwareentwicklung für maschinelles Lernen” setzen noch einen Schritt zuvor an, und wirken in Richtung fehlerfreier Methodenanwendung. Sie stellen dazu in julearn eine Software bereit, die komplexe Methoden des maschinellen Lernens vereinfacht und dabei typische Fehler wie etwa “data leakage” verhindert. Dadurch wird maschinelles Lernen einfacher und vertrauenswürdiger.

Ethische Anwendung

Insbesondere im medizinischen Bereich ist auch der ethische Umgang mit KI wichtig. Die Gruppe "Neuroethik und Ethik in der KI" arbeitet in der Schnittmenge von Ethik, Medizin, und Data Science. Sie arbeitet unter anderem daran, ethische Herausforderungen von KI-Anwendungen zu identifizieren, dass KI in einem gesellschaftlich akzeptierten und verantworteten Rahmen angewandt wird, oder evaluiert, wie weit KI sich menschlicher Leistung annähert und wie man dies testen kann.

Raus aus dem Elfenbeinturm

Wir behalten Software und Expertise nicht für uns allein. Alle Werkzeuge, die wir entwickeln, sind quelloffen und frei verfügbar. Zudem gibt es virtuelle Sprechstunden zum Austausch mit Anwendern und Interessierten. Und wir verbinden unsere Tools und Kompentenzen aktiv in verschiedenen Projekten, beispielsweise FRAIM oder ABCD-J.

Weitere Infos und andere Projekte finden sich auch in der Übersicht Kooperationen.

Ansprechpartner

Prof. Dr. Bert Heinrichs

Arbeitsgruppenleiter

  • Institut für Neurowissenschaften und Medizin (INM)
  • Gehirn und Verhalten (INM-7)
Gebäude 14.6 /
Raum 301/302
+49 2461/61-96431
E-Mail
  • Institut für Neurowissenschaften und Medizin (INM)
  • Gehirn und Verhalten (INM-7)
Gebäude 15.2 /
Raum 319
+49 2461/61-5297
E-Mail
  • Institut für Neurowissenschaften und Medizin (INM)
  • Gehirn und Verhalten (INM-7)
Gebäude 14.6y /
Raum 2083
+49 2461/61-85925
E-Mail
  • Institut für Neurowissenschaften und Medizin (INM)
  • Gehirn und Verhalten (INM-7)
Gebäude 14.6y /
Raum 2049
+49 2461/61-96083
E-Mail
  • Institut für Neurowissenschaften und Medizin (INM)
  • Gehirn und Verhalten (INM-7)
Gebäude 14.6y /
Raum 2039
+49 2461/61-5890
E-Mail
  • Institut für Neurowissenschaften und Medizin (INM)
  • Gehirn und Verhalten (INM-7)
Gebäude 14.6y /
Raum 3001
+49 241/92-0
E-Mail

Letzte Änderung: 11.12.2024