Aasa Feragen ist Professorin an der Technischen Universität Dänemark. Sie hat einen Master- und einen Doktortitel in Mathematik von der Universität Helsinki und war anschließend als Postdoktorandin an der Universität Kopenhagen und am MPI für Intelligente Systeme in Tübingen tätig. Aasas Forschung befindet sich an der Schnittstelle zwischen maschinellem Lernen und Mathematik, wobei ihr besonderer Schwerpunkt auf der praktischen Anwendung verantwortungsbewusster KI-Tools liegt, darunter Unsicherheitsquantifizierung, erklärbare KI und algorithmische Fairness. Aasa engagiert sich gerne für den Aufbau und die Pflege von Communities, unter anderem als Programmvorsitzende von MICCAI (2024), IPMI (2021) und MIDL (2019) sowie als allgemeine Co-Vorsitzende von EurIPS (2025).
Verantwortungsbewusste KI-Tools wie algorithmische Fairness, erklärbare KI oder Unsicherheitsquantifizierung werden oft sowohl gefördert als auch gefordert, um eine ethischere KI zu erreichen. In diesem Vortrag werde ich einige der potenziellen Fallstricke diskutieren, die mit der Verwendung verantwortungsbewusster KI-Tools verbunden sind, ohne deren Stärken und Schwächen vollständig zu verstehen: Algorithmic Fairness Tools können Verzerrungen hervorrufen, erklärbare KI-Tools können zu Fehlinterpretationen führen und Tools zur Quantifizierung von Unsicherheiten können zu übermäßigem Vertrauen in falsche Vorhersagen führen. Im Anschluss an diese Diskussion werde ich aktuelle Best Practices und offene technische Probleme diskutieren, um sicherzustellen, dass verantwortungsbewusste KI auch tatsächlich verantwortungsbewusst ist.
Dr. Nils Daniel Forkert, PhD (h-Index 44, 7661 Zitationen) ist Professor an der University of Calgary in den Departments für Radiologie, Klinische Neurowissenschaften sowie Elektrotechnik und Software Engineering.
Er erhielt 2009 sein deutsches Diplom in Informatik von der Universität Hamburg, 2012 seinen Masterabschluss in Medizinischer Physik von der Technischen Universität Kaiserslautern und 2013 seinen Doktortitel in Informatik ebenfalls von der Universität Hamburg. Im Anschluss absolvierte er ein Postdoktoranden-Stipendium an der Stanford University, bevor er 2014 als Assistant Professor an die University of Calgary wechselte.
Dr. Forkert ist Bildgebungs- und Machine-Learning-Wissenschaftler. Er entwickelt neue Bildverarbeitungsmethoden, prädiktive Algorithmen und Softwaretools zur Analyse medizinischer Daten. Dazu gehört unter anderem die Extraktion klinisch relevanter Parameter und Biomarker aus Daten, die die Morphologie und Funktion von Organen beschreiben – mit dem Ziel, klinische Studien und präklinische Forschung zu unterstützen sowie computergestützte Diagnosesysteme und patientenspezifische, präzisionsmedizinische Vorhersagemodelle auf Basis multimodaler medizinischer Daten mittels maschinellen Lernens zu entwickeln.
Dr. Forkert ist Inhaber eines Canada Research Chair (Tier 2) im Bereich Medical Image Analysis, Direktor des Child Health Data Science Program am Alberta Children’s Hospital Research Institute sowie Themenverantwortlicher für Maschinelles Lernen in der Neurowissenschaft am Hotchkiss Brain Institute der University of Calgary.
Er hat über 220 von Fachkolleg:innen begutachtete Artikel, mehr als 90 vollständige Konferenzbeiträge, ein Buch und zwei Buchkapitel veröffentlicht. Zudem hat er als Haupt- oder Co-Antragsteller bedeutende Fördermittel von den Canadian Institutes of Health Research (CIHR), dem Natural Sciences and Engineering Research Council, der Heart and Stroke Foundation, der Calgary Foundation sowie den National Institutes of Health eingeworben.
Artificial intelligence (AI) has already become a vital tool for transforming the vast amounts of data acquired and available into tangible benefits in our increasingly data-driven world. Healthcare is no exception to this — the advancements in diagnostic technologies have significantly increased the volume and complexity of medical data collected, both at the individual patient level and across populations. Among these data sources, medical imaging stands out as the largest and most information-rich, yet also one of the most challenging to analyze. The sheer volume and complexity of imaging data, especially when integrated with other clinical information, can overwhelm clinicians and make timely, accurate interpretation difficult. In this context, the AI domain, in particular machine learning (ML), offers powerful methods to support clinical decision-making, reduce cognitive burden, and enable healthcare professionals to focus more on complex cases and patient interactions, ultimately promoting precision and equity in care delivery.
Despite this promise and potential, the clinical adoption of ML models in radiology remains rather limited. One of the major adoption barriers is related to the growing body of evidence showing that ML models used for medical image analysis can exhibit biased or discriminatory behavior, particularly when used for computer-aided diagnosis. While these concerns are increasingly recognized, there is still a lack of systematic research into how biases embedded in medical images influence ML model structure and behavior, and how diagnostic systems can be designed to be fairer and more equitable. Importantly and often overlooked, addressing these challenges requires more than technical expertise as machine learning is not a value-neutral technology. It is deeply embedded in social contexts and shaped by the data it is trained with, the systems it operates within, and the societal values it reflects.
This presentation will highlight our recent work aimed at identifying and understanding biases in medical imaging data and ML models. More precisely, it will introduce a novel synthetic data simulation framework that enables controlled, systematic evaluation of how specific imaging biases affect model performance, and how mitigation strategies can reduce disparities between subgroups. Building on this, it will be demonstrated how convolutional neural networks encode different types of biases across their layers and how these encodings contribute to shortcut learning. Moreover, it will be shown how advanced AI methods can be used to uncover the underlying mechanisms of unfair model behavior. Finally, the presentation will take a first step toward connecting current technical definitions of AI fairness with their broader sociotechnical impacts, emphasizing the need for interdisciplinary approaches to fairness in medical AI. Together, this presentation underscores the importance of controlled experimentation, explainability, and sociotechnical awareness in developing AI systems that are not only accurate but also equitable and trustworthy in clinical practice.
Antonio Krüger ist Geschäftsführer und wissenschaftlicher Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI GmbH) sowie Leiter des Forschungsbereichs „Cognitive Assistants“ am DFKI.
Er ist seit 2009 Professor für Informatik an der Universität des Saarlandes, Leiter des Ubiquitous Media Technology Lab und wissenschaftlicher Direktor des Innovative Retail Laboratory (IRL) am DFKI.Prof. Krüger ist ein international anerkannter Experte für Mensch-Maschine-Interaktion und Künstliche Intelligenz. Im Jahr 2010 gründete er den Studiengang Medieninformatik an der Universität des Saarlandes, den er bis heute leitet.
Antonio Krüger ist Mitgründer des in Saarbrücken ansässigen Technologieunternehmens Eyeled GmbH, das sich auf die Entwicklung mobiler und allgegenwärtiger Informationssysteme spezialisiert hat. Viele seiner Forschungsergebnisse sind in Anwendungen im Einzelhandel und anderen industriellen Bereichen eingeflossen. Von 2004 bis 2009 war er Professor für Informatik und Geoinformatik an der Universität Münster und zugleich geschäftsführender Direktor des dortigen Instituts für Geoinformatik. Er studierte Informatik und Wirtschaftswissenschaften an der Universität des Saarlandes und promovierte 1999 als Mitglied der Graduiertenschule für Kognitionswissenschaft in Saarbrücken.
In seinem Vortrag skizziert Prof. Dr. Antonio Krüger die Chancen der künstlichen Intelligenz mit Schwerpunkt auf Deutschland und Europa. Er beleuchtet Forschungsansätze und aktuelle Trends in der KI-Landschaft. Außerdem geht er auf wichtige politische Initiativen wie die nationale Hightech-Agenda und Vorschläge zum Ausbau von KI-Rechenzentren ein, um Forschung und praktische Anwendung voranzutreiben. Abschließend analysiert er den Rechtsrahmen des EU-KI-Gesetzes und dessen Auswirkungen auf Innovation, Sicherheit und soziales Vertrauen. Der Vortrag betont die Bedeutung gezielter politischer Maßnahmen, einer leistungsfähigen Infrastruktur und wissenschaftlicher Exzellenz für die Förderung der KI in Europa.
Xi-Nian Zuo ist Mitglied der Organisation für Human Brain Mapping (OHBM) und derzeit Mitherausgeber von Network Neuroscience, Nature Scientific Data und Science Bulletin. Er hat die Entwicklungs- und Populationsneurowissenschaft vorgeschlagen und sich auf deren interdisziplinäre Erforschung konzentriert. Dr. Zuo hat mehrere groß angelegte Datenaustauschprojekte geleitet, darunter das Consortium for Reliability and Reproducibility (CoRR), das Chinese Brain Health Imaging Consortium (CHART) und das Chinese Color Nest Project (CCNP), und war für den Aufbau der Interdisciplinary Brain Database for In-vivo Population Imaging (ID-BRAIN) am National Basic Science Data Center verantwortlich. Er war federführend am National Program of Directional Prediction and Roadmap for Developmental Cognitive Neuroscience beteiligt, schloss sich der internationalen Initiative zur Erforschung der Lebensspanne des menschlichen Gehirns an und förderte die Zuverlässigkeit und Validität der funktionellen Darstellung von menschlichen Gehirnkonnektomen.
Neural oscillations facilitate the functioning of the human brain in spatial and temporal dimensions at various frequencies. These oscillations feature a universal frequency architecture that is governed by brain anatomy, ensuring frequency specificity remains invariant across different measurement techniques. During the past decade, fMRI studies have unveiled frequency-dependent characteristics of the spontaneous slow oscillations (SSOs), which are believed to base dark energy in the brain. There remains a dearth of conclusive insights and hypotheses pertaining to the properties and functionalities of SSOs in distinct bands. My team surveyed the SSO multi-band frequence studies during the past 15 years to delineate the attributes of SSOs and enlighten their correlated functions. A model was proposed to elucidate the hierarchical organization of multi-band SSOs by integrating their function, aimed at bridging theoretical gaps and guiding future research endeavors. The interdisciplinary message is clear: deciphering the brain’s “dark energy” - its SSOs and cortical traveling waves - simultaneously advances basic neuroscience and seeds new AI paradigms. By understanding how the brain self-organizes oscillations to achieve flexible, energy-efficient information processing, we can translate these principles into algorithms and hardware with improved robustness and power efficiency. Emerging work in neuromorphic vision explores wave-based dynamics for real-time sensor processing. Early implementations of neuromorphic wave computing exploit activity diffusion and oscillatory interference to support tasks such as image recognition and temporal prediction at substantially lower energy budgets than conventional chips for achieving human-like allostatic–interoceptive systems. We see four priorities in future directions of SSOs research: (i) derive testable predictions that couple geometry/eigenmodes to cross-frequency coupling and traveling-wave timing in vivo; (ii) quantify energy-accuracy trade-offs by linking oscillatory control to metabolic/homeostatic constraints; (iii) develop wave-native learning rules and benchmarks for neuromorphic substrates implementing coherence-gated routing and predictive waves; and (iv) probe state transitions (sleep, anesthesia, and conscious access) to connect model parameters with measurable changes in oscillatory spectra and propagation velocities. Pursuing these aims should clarify when and why oscillatory computation outperforms conventional architectures, while sharpening the “dark brain energy” model into a falsifiable, cross-scale framework for brain function and brain-inspired computing.



