Aasa Feragen ist Professorin an der Technischen Universität Dänemark. Sie hat einen Master- und einen Doktortitel in Mathematik von der Universität Helsinki und war anschließend als Postdoktorandin an der Universität Kopenhagen und am MPI für Intelligente Systeme in Tübingen tätig. Aasas Forschung befindet sich an der Schnittstelle zwischen maschinellem Lernen und Mathematik, wobei ihr besonderer Schwerpunkt auf der praktischen Anwendung verantwortungsbewusster KI-Tools liegt, darunter Unsicherheitsquantifizierung, erklärbare KI und algorithmische Fairness. Aasa engagiert sich gerne für den Aufbau und die Pflege von Communities, unter anderem als Programmvorsitzende von MICCAI (2024), IPMI (2021) und MIDL (2019) sowie als allgemeine Co-Vorsitzende von EurIPS (2025).
Verantwortungsbewusste KI-Tools wie algorithmische Fairness, erklärbare KI oder Unsicherheitsquantifizierung werden oft sowohl gefördert als auch gefordert, um eine ethischere KI zu erreichen. In diesem Vortrag werde ich einige der potenziellen Fallstricke diskutieren, die mit der Verwendung verantwortungsbewusster KI-Tools verbunden sind, ohne deren Stärken und Schwächen vollständig zu verstehen: Algorithmic Fairness Tools können Verzerrungen hervorrufen, erklärbare KI-Tools können zu Fehlinterpretationen führen und Tools zur Quantifizierung von Unsicherheiten können zu übermäßigem Vertrauen in falsche Vorhersagen führen. Im Anschluss an diese Diskussion werde ich aktuelle Best Practices und offene technische Probleme diskutieren, um sicherzustellen, dass verantwortungsbewusste KI auch tatsächlich verantwortungsbewusst ist.
Dr. Nils Daniel Forkert, PhD (h-Index 44, 7661 Zitationen) ist Professor an der University of Calgary in den Departments für Radiologie, Klinische Neurowissenschaften sowie Elektrotechnik und Software Engineering.
Er erhielt 2009 sein deutsches Diplom in Informatik von der Universität Hamburg, 2012 seinen Masterabschluss in Medizinischer Physik von der Technischen Universität Kaiserslautern und 2013 seinen Doktortitel in Informatik ebenfalls von der Universität Hamburg. Im Anschluss absolvierte er ein Postdoktoranden-Stipendium an der Stanford University, bevor er 2014 als Assistant Professor an die University of Calgary wechselte.
Dr. Forkert ist Bildgebungs- und Machine-Learning-Wissenschaftler. Er entwickelt neue Bildverarbeitungsmethoden, prädiktive Algorithmen und Softwaretools zur Analyse medizinischer Daten. Dazu gehört unter anderem die Extraktion klinisch relevanter Parameter und Biomarker aus Daten, die die Morphologie und Funktion von Organen beschreiben – mit dem Ziel, klinische Studien und präklinische Forschung zu unterstützen sowie computergestützte Diagnosesysteme und patientenspezifische, präzisionsmedizinische Vorhersagemodelle auf Basis multimodaler medizinischer Daten mittels maschinellen Lernens zu entwickeln.
Dr. Forkert ist Inhaber eines Canada Research Chair (Tier 2) im Bereich Medical Image Analysis, Direktor des Child Health Data Science Program am Alberta Children’s Hospital Research Institute sowie Themenverantwortlicher für Maschinelles Lernen in der Neurowissenschaft am Hotchkiss Brain Institute der University of Calgary.
Er hat über 220 von Fachkolleg:innen begutachtete Artikel, mehr als 90 vollständige Konferenzbeiträge, ein Buch und zwei Buchkapitel veröffentlicht. Zudem hat er als Haupt- oder Co-Antragsteller bedeutende Fördermittel von den Canadian Institutes of Health Research (CIHR), dem Natural Sciences and Engineering Research Council, der Heart and Stroke Foundation, der Calgary Foundation sowie den National Institutes of Health eingeworben.
Artificial intelligence (AI) has already become a vital tool for transforming the vast amounts of data acquired and available into tangible benefits in our increasingly data-driven world. Healthcare is no exception to this — the advancements in diagnostic technologies have significantly increased the volume and complexity of medical data collected, both at the individual patient level and across populations. Among these data sources, medical imaging stands out as the largest and most information-rich, yet also one of the most challenging to analyze. The sheer volume and complexity of imaging data, especially when integrated with other clinical information, can overwhelm clinicians and make timely, accurate interpretation difficult. In this context, the AI domain, in particular machine learning (ML), offers powerful methods to support clinical decision-making, reduce cognitive burden, and enable healthcare professionals to focus more on complex cases and patient interactions, ultimately promoting precision and equity in care delivery.
Despite this promise and potential, the clinical adoption of ML models in radiology remains rather limited. One of the major adoption barriers is related to the growing body of evidence showing that ML models used for medical image analysis can exhibit biased or discriminatory behavior, particularly when used for computer-aided diagnosis. While these concerns are increasingly recognized, there is still a lack of systematic research into how biases embedded in medical images influence ML model structure and behavior, and how diagnostic systems can be designed to be fairer and more equitable. Importantly and often overlooked, addressing these challenges requires more than technical expertise as machine learning is not a value-neutral technology. It is deeply embedded in social contexts and shaped by the data it is trained with, the systems it operates within, and the societal values it reflects.
This presentation will highlight our recent work aimed at identifying and understanding biases in medical imaging data and ML models. More precisely, it will introduce a novel synthetic data simulation framework that enables controlled, systematic evaluation of how specific imaging biases affect model performance, and how mitigation strategies can reduce disparities between subgroups. Building on this, it will be demonstrated how convolutional neural networks encode different types of biases across their layers and how these encodings contribute to shortcut learning. Moreover, it will be shown how advanced AI methods can be used to uncover the underlying mechanisms of unfair model behavior. Finally, the presentation will take a first step toward connecting current technical definitions of AI fairness with their broader sociotechnical impacts, emphasizing the need for interdisciplinary approaches to fairness in medical AI. Together, this presentation underscores the importance of controlled experimentation, explainability, and sociotechnical awareness in developing AI systems that are not only accurate but also equitable and trustworthy in clinical practice.
Antonio Krüger ist Geschäftsführer und wissenschaftlicher Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI GmbH) sowie Leiter des Forschungsbereichs „Cognitive Assistants“ am DFKI.
Er ist seit 2009 Professor für Informatik an der Universität des Saarlandes, Leiter des Ubiquitous Media Technology Lab und wissenschaftlicher Direktor des Innovative Retail Laboratory (IRL) am DFKI.Prof. Krüger ist ein international anerkannter Experte für Mensch-Maschine-Interaktion und Künstliche Intelligenz. Im Jahr 2010 gründete er den Studiengang Medieninformatik an der Universität des Saarlandes, den er bis heute leitet.
Antonio Krüger ist Mitgründer des in Saarbrücken ansässigen Technologieunternehmens Eyeled GmbH, das sich auf die Entwicklung mobiler und allgegenwärtiger Informationssysteme spezialisiert hat. Viele seiner Forschungsergebnisse sind in Anwendungen im Einzelhandel und anderen industriellen Bereichen eingeflossen. Von 2004 bis 2009 war er Professor für Informatik und Geoinformatik an der Universität Münster und zugleich geschäftsführender Direktor des dortigen Instituts für Geoinformatik. Er studierte Informatik und Wirtschaftswissenschaften an der Universität des Saarlandes und promovierte 1999 als Mitglied der Graduiertenschule für Kognitionswissenschaft in Saarbrücken.
In seinem Vortrag skizziert Prof. Dr. Antonio Krüger die Chancen der künstlichen Intelligenz mit Schwerpunkt auf Deutschland und Europa. Er beleuchtet Forschungsansätze und aktuelle Trends in der KI-Landschaft. Außerdem geht er auf wichtige politische Initiativen wie die nationale Hightech-Agenda und Vorschläge zum Ausbau von KI-Rechenzentren ein, um Forschung und praktische Anwendung voranzutreiben. Abschließend analysiert er den Rechtsrahmen des EU-KI-Gesetzes und dessen Auswirkungen auf Innovation, Sicherheit und soziales Vertrauen. Der Vortrag betont die Bedeutung gezielter politischer Maßnahmen, einer leistungsfähigen Infrastruktur und wissenschaftlicher Exzellenz für die Förderung der KI in Europa.


