Explainable Artificial Intelligence using Counterfactual Explanations for (online) Adaptive Radiotherapy
Naam: Luca Heising
Functie: PhD student
Werkplek : Maastro clinic & Tilburg University
Radiotherapie (RT) is een belangrijke behandeling tegen kanker. Meestal bestaat een RT-behandeling uit ongeveer 36 sessies (fracties) die bijna elke dag plaatsvinden.
Bij de huidige werkwijze wordt eerst een CT-scan gemaakt. Op die scan tekent men het tumorgebied en de kritieke organen. Met deze informatie maakt men een behandelplan zodat de tumor de juiste dosis straling krijgt, terwijl gezonde organen zo veel mogelijk worden gespaard. Dit plan blijft normaal gesproken hetzelfde tijdens alle sessies.
Probleem: Het lichaam van de patiënt kan tijdens de behandeling veranderen. In ongeveer de helft van de gevallen verandert de anatomie (bijvoorbeeld de tumor krimpt sneller dan verwacht). Dan kan gezonde weefsel onnodig veel straling krijgen omdat op het originele plan waar tumor zat, nu gezond weefsel zit. Adaptieve radiotherapie (ART) is een innovatieve manier van behandelen waarbij het plan bij elke sessie wordt aangepast op basis van de nieuwste informatie. Bij online adaptieve RT gebeurt dit terwijl de patiënt op de behandeltafel ligt. Dit moet heel snel gaan, wat handmatig bijna onmogelijk is.
Kunstmatige intelligentie (AI) kan helpen door delen van dit proces te automatiseren. Zo wordt de behandeling nauwkeuriger. AI brengt echter ook wat uitdagingen met zich mee. AI is vaak een black-box, in andere woorden, het is vaak lastig te achterhalen waarom AI tot een bepaalde uitkomst komt en is daardoor ook vaak moeilijk te controleren. Explainable AI (XAI) is een onderzoekstroming waarbij men probeert de AI-beslissingen begrijpelijk en inzichtelijk te maken.
De Knowledge en Discovery lab in Pisa is een onderzoeksgroep die zich grotendeels met XAI bezighoudt. Counterfactual explanations is een methode waar Riccardo Guidotti, senior onderzoeker in het KDDlab en de universiteit van Pisa, zich veelal op richt. Dit is een methode waarbij men probeert de AI-uitkomst van andere scenario’s te achterhalen. Bijvoorbeeld, wanneer het AI-model voorspelt dat er een tumorregressie heeft plaatsgevonden op één van de CT-afbeeldingen, dan is het doel van de counterfactual explanation om te laten zien hoe deze afbeelding eruit had gezien had de tumorregressie niet plaatsgevonden. Dit is dan ook exact wat we hebben proberen waar te maken tijdens mijn bezoek van oktober 2024 tot en met februari 2025 aan de universiteit van Pisa.
Een eerste stap was om de input afbeelding handmatig te veranderen. Door de tumor steeds een klein stukje te krimpen of te vergroten probeerden we het AI-model een andere uitkomst te laten geven. Wanneer het AI-model een error detecteert kunnen we met deze methode zien hoe kritisch de error is. Als we de tumor in onze simulatie maar met een hele kleine hoeveelheid hoeven vergroten om een andere AI-uitkomst te krijgen, kunnen we vaststellen dat de error dicht bij het omslagpunt van wel of geen error zit. Dit kan de arts inzicht geven in hoe noodzakelijk het is om hierop de acteren.
Deze oplossing hebben we vertaald naar een praktische toepassing, die we in januari 2026 hebben mogen presenteren op de HICSS-conferentie waar de methode met veel interesse werd ontvangen. Daarnaast hebben we met het team nagedacht over vervolgstappen. Een belangrijk aandachtspunt daarbij is hoe we “actionability” kunnen integreren in de XAI-tool. Actionability betekent dat de uitleg die je geeft ook perspectief biedt over welke acties kunnen worden genomen om een andere uitkomst te verwezenlijken. In onze casus, waarin we keken naar de grootte van de tumor, is de actionability laag: de arts moet zelf bedenken hoe het plan moet worden aangepast op de gedetecteerde tumorregressie. Daarom hebben we onderzocht of het mogelijk is om counterfactual explanations toe te passen op het radiotherapieplan. In dat scenario zou het AI-model getraind worden op radiotherapieplannen. Wanneer een fout wordt gedetecteerd, kan het model een alternatief plan voorstellen waarin die fout niet voorkomt. Deze informatie is waardevol voor de arts, omdat direct duidelijk wordt welke aanpassingen het probleem zouden kunnen verhelpen of voorkomen.

Buiten het werken aan het project dat ik meebracht heb ik veel mensen leren kennen bij de afdeling computer science in Pisa die vergelijkbare onderwerpen onderzoeken gerelateerd aan AI of XAI. Daardoor heb ik veel inspiratie mogen opdoen en connectie kunnen leggen voor eventuele toekomstige samenwerkingen.