Learning vector quantization with applications in neuroimaging and biomedicine
Promotie: | Dhr. R. (Rick) van Veen |
Wanneer: | 02 mei 2022 |
Aanvang: | 12:45 |
Promotors: | M. (Michael) Biehl, Prof, prof. dr. N. (Nicolai) Petkov, prof. dr. K.L. (Klaus) Leenders |
Copromotor: | dr. G.J. de Vries |
Waar: | Academiegebouw RUG |
Faculteit: | Science and Engineering |
Betere diagnose dankzij kunstmatige intelligentie
Het lastig om de juiste diagnose te stellen van neurodegeneratieve ziekten. Dit is complex en niet altijd mogelijk vanwege de overlap van karakteristieke symptomen. Biologische markers zijn daarom nodig, maar ook functionele brein scans zijn een mogelijke oplossing.
In het algemeen kunnen machinale leermethoden (een vorm van kunstmatige intelligentie) helpen met het stellen van de diagnose, maar het proces van sommige methoden is niet altijd begrijpelijk. Daarnaast zijn er veel data nodig om machinale leermethoden te trainen. Daarom wordt de data van meerdere neurologische centra gecombineerd tot een enkele dataset. Rick van Veen laat in zijn promotieonderzoek zien dat dit leidt tot ongewilde variatie in de data. Er is dus een betere techniek nodig.
Learning Vector Quantization is een soort machinaal leren dat prototypische representaties (prototypes) produceert voor elke klasse in de data. Daarnaast weegt het de invoerruimte naar hoe relevant het is voor de classificatie taak. Als voorbeeld trainde Van Veen een model op steroïden in biologische monsters van patiënten met een goedaardige of kwaadaardige tumor van de bijnierschors. In dit geval was het model direct te interpreteren en hielp daarbij een beslissing te maken tussen twee soorten meetmethoden.
Door de complexiteit van de data van hersenscans zijn de modellen die getraind zijn om de neurodegeneratieve ziekten te onderscheiden niet direct te begrijpen. Desondanks kan Van Veen laten zien dat de prototypen en relevanties in de originele ruimte kunnen worden gereconstrueerd, wat de interpretatie significant verbeterd. Daarnaast zijn makkelijk te begrijpen representaties van de data te produceren die de diagnoses en progressie over tijd kunnen laten zien, wat leidt tot uitvoerbare scenario’s. Ten slotte presenteert Van Veen een nieuwe methode die om kan gaan met de centrum gerelateerde en ongewilde variatie in de data.
Het promotieonderzoek van Rick van Veen vond plaats bij de afdeling Intelligente Systemen van het Bernoulli Instituut. Hij werkt nu als Researcher and Senior Data Scientist aan het Software Competence Center Hagenberg.