Medizinische Informatik, Statistik und Dokumentation

Forschungsschwerpunkt Human-Computer-Interaction for Medicine and Healthcare

Teamleiter: Andreas Holzinger

Fokus: Künstliche Intelligenz ist durch die Fortschritte im statistischen maschinellen Lernen bemerkenswert erfolgreich und übertrifft bei gewissen Aufgaben in der Medizin sogar die menschliche Performanz. Die Komplexität solcher Ansätze macht es allerdings oft unmöglich, nachzuvollziehen, warum ein Algorithmus zu einem bestimmten Ergebnis gekommen ist. Der Fokus unserer Forschung liegt auf der Nachvollziehbarkeit und damit der Interpretierbarkeit. Hier kann ein human-in-the-loop hilfreich sein, denn menschliche Expert*innen können Erfahrung, kontextuelles Verständnis, implizites und konzeptionelles Wissen einbringen.

Vernetzung: Das Forschungsteam Holzinger ist Med-Uni-intern mit dem Diagnostik- & Forschungs-Institut für Pathologie vernetzt und international mit dem xAI-Lab des Alberta Machine Intelligence Institute, Edmonton, dem Life Sciences Discovery Center Toronto in Kanada, sowie dem Human-Centered AI Lab an der University of Technology, Sydney, Australien.

Projekte

Explainable-AI

  • Das FWF-Forschungsprojekt P-32554 "Ein Referenzmodell erklärbarer Künstlicher Intelligenz (KI) für die Medizin" arbeitet an grundlegenden Fragestellungen, z.B., warum KI manche Aufgaben besser lösen kann als menschliche Experten, wie KI zu den Ergebnissen gekommen ist, und was passiert, wenn Eingabedaten kontrafaktisch verändert werden. Dazu werden Methoden, Erklärungsmuster und Qualitätskriterien für Erklärbarkeit und kausales Verständnis von Erklärungen entwickelt.
  • Laufzeit: 2019-2023
  • Gefördert durch: FWF

Feature Cloud

  • Im Rahmen des EU-RIA-Projekts 826078 "Privacy preserving federated machine learning", bei dem das Ziel darin besteht, nur gelernte Repräsentationen (die Merkmalsparameter Theta, daher der Projektname) auszutauschen, arbeitet das Team an verteiltem maschinellen Lernen und leistet Beträge zu Erklärbarkeit und Interpretierbarkeit solcher Ansätze, insbesondere zu Graphen-basierter erklärbarer KI und zu Aspekten effizienter Mensch-KI-Interaktion, die ethisch verantwortliches und rechtlich vertretbares maschinelles Lernen in der Medizin unterstützen.
  • Laufzeit: 2019-2024
  • Gefördert durch: EU
  • Projektpartner*innen: TU München, Uni Hamburg, Uni Marburg, SBA-Research Wien, University of South Denmark, Uni Maastricht, Research Institute Wien, Gnome Design SRL

EMPAIA

  • Im Projekt "Ökosystem für die Pathologiediagnostik mit KI-Unterstützung", dem österreichischen Schwesterprojekt der deutschen KI-Plattform www.empaia.org, arbeiten wir gemeinsam mit dem Institut für Pathologie daran, maschinelle Entscheidungen in der digitalen Pathologie transparent, rückverfolgbar und für medizinische Expert*innen interpretierbar zu machen. Neuartige, von medizinischen Expert*innen trainierte Mensch-KI-Schnittstellen, sollen die Zuverlässigkeit, Verantwortlichkeit, Fairness und das Vertrauen in die KI verbessern und ethisch verantwortliches maschinelles Lernen fördern.
  • Laufzeit: 2020-2023
  • Gefördert durch: FFG
  • Projektpartner*innen: TU Berlin, Charité Berlin

Teamleiter

Univ.-Doz. Ing. MMag. Dr.
Andreas Holzinger  
T: +43 316 385 13883