Gaan wetenschap en kunstmatige intelligentie samen?
ChatGPT, Gemini, DALL-E, en Midjourney. Hoewel deze tools met kunstmatige intelligentie pas, pak hem beet, twee jaar beschikbaar zijn voor het publiek, zijn ze voor velen niet meer weg te denken uit het leven. We maken er teksten, afbeeldingen en zelfs liedjes mee. Hoe zit dat in de wetenschap? Gebruiken wetenschappers ook artificiële intelligentie (AI) en hoe betrouwbaar is onderzoek dan nog?
Alle afbeeldingen in dit artikel zijn gemaakt met artificiële intelligentie (AI)
Je drukt je ogen tegen een ouderwetse stereoscoop die een foto van een berglandschap met een huisje op de berghelling omtovert in een 3D-beeld. Na vijf seconden wordt het beeld zwart. Dan verschijnt de foto opnieuw, met één kleine aanpassing: het huisje is nu nét wat anders. Terwijl jij de verandering bestudeert, observeert een geavanceerd AI-systeem jouw oogbewegingen. Waar richt je je blik op? Hoe lang? Na tientallen van dit soort paren foto’s, waarbij de tweede telkens subtiel verschilt van de eerste, velt de software een oordeel: heb je Alzheimer of niet?
Patronen herkennen
Gezonde personen richten hun blik op delen waar nieuwe informatie te zien is, terwijl mensen met Alzheimer meer gefixeerd blijven op het midden van de afbeelding. Hoewel deze methode nog niet in ziekenhuizen wordt toegepast en het oordeel van de kunstmatige intelligentie er bij zeker één van de tien personen naast zit, laat dit voorbeeld wel de enorme potentie zien die AI biedt in de medische wereld, en in de rest van de wetenschap.
Maar laten we eerst even teruggaan naar het begin. Wat is kunstmatige intelligentie nu eigenlijk? Heel eenvoudig gezegd is het een stuk software dat patronen herkent. Die software bestaat al sinds halverwege de twintigste eeuw, maar doordat computers tot 2010 niet snel genoeg werkten, konden we het volle potentieel nog niet volledig benutten. In de afgelopen vijftien jaar sloop deze patroonherkenner de wetenschap én ons dagelijks leven binnen. Denk maar aan kijksuggesties op streamingdiensten als Netflix of aan je telefoon die het volgende woord voorspelt terwijl je een bericht typt. Ook in de wetenschap komen patronen volop voor, zoals de oogbewegingen bij de Alzheimer-test. Maar met AI kunnen onderzoekers ook weersvoorspellingen doen en nieuwe medicijnen ontwikkelen.
Nieuwe inzichten
Wetenschappers gebruiken dus al kunstmatige intelligentie. Dat is helemaal geen probleem, volgens dr. Kristiaan Glorie, directeur van Erasmus Q-Intelligence, een onderdeel van de Erasmus Universiteit Rotterdam. “Wetenschappers zijn altijd op zoek naar nieuwe inzichten”, zegt hij. “Het doet er niet toe of die inzichten uit een algoritme komen of uit de hersenen van een mens.” Maar dat betekent natuurlijk niet dat onderzoekers willekeurig kunstmatige intelligentie op een document vol data moeten loslaten. Glorie ziet AI als een nuttige tool, vergelijkbaar met de gps in een auto. “Het is een hulpsysteem dat dient ter ondersteuning, maar er is altijd iemand nodig die beoordeelt of zo’n hulpsysteem nuttig is”, aldus Glorie.
De reden dat wetenschappers AI niet zomaar op hun data moeten loslaten, is eenvoudig en heeft te maken met het eerder genoemde talent van AI: patronen ontdekken. “Want patronen kun je overal vinden”, zegt Glorie. “Maar de vraag is of die patronen ook daadwerkelijk verband houden of dat het puur toeval is”. Zo zagen statistici in het begin van de twintigste eeuw dat er meer baby’s geboren werden in dorpen waar ooievaars nestelden. Het moge duidelijk zijn dat het daar niet om een direct verband gaat. Dat weten wij, maar kunstmatige intelligentie kijkt puur naar patronen en maakt geen onderscheid tussen directe verbanden, indirecte verbanden of toevallige patronen.
Sneeuw op de achtergrond
Om de juiste patronen te ontdekken, moet AI training krijgen. Het ‘lesmateriaal’ daarvoor is essentieel en soms gaat dat fout. Een groep onderzoekers ontwikkelde bijvoorbeeld een AI-programma dat husky’s van wolven moest onderscheiden. Ze trainden de software net zo lang met foto’s waar óf een husky óf een wolf op stond, totdat het programma zelf het onderscheid wist te maken. Dat ging best goed, totdat ze het systeem een foto van een wolf in de sneeuw toonden en het programma beweerde dat het een husky was. Wat bleek? Alle foto’s van husky’s in het trainingsmateriaal hadden sneeuw op de achtergrond, foto’s van wolven niet.
Het AI-programma lette dus helemaal niet op het dier, maar richtte zich puur op de achtergrond. Lag er sneeuw, dan classificeerde het programma de foto als husky. Geen sneeuw? Dan ging het om een wolf. Wij mensen zien het verschil tussen dieren en achtergrond en weten wat het onderwerp van de foto is. AI-programma’s leren op basis van elk mogelijke pixel of elk stukje data. Dat maakt het moeilijk te controleren of te beïnvloeden wat AI daadwerkelijk leert. Het husky-of-wolfvoorbeeld illustreert hoe cruciaal de trainingsdata is en hoe er onbedoeld metaforische ‘sneeuw’ in de data kan zitten.
Generaliserende conclusies
Zelfs nu het sneeuweffect bekend is onder AI-onderzoekers, gaat het nog weleens mis. Zo ook bij diagnose van COVID door AI op basis van röntgenfoto van de borst – een serieuzere kwestie dan plaatjes van husky’s en wolven onderscheiden. Daar was volgens andere onderzoekers bijna letterlijk sprake van sneeuw op de achtergrond: het ging om ruis. Toen onderzoekers het getrainde systeem stukjes van de röntgenfoto’s lieten zien zonder menselijk lichaam, identificeerde het ook positieve gevallen, puur op basis van de ruis. Het systeem bleek dus geen medisch relevante kenmerken te leren.
Mede door dit soort uitkomsten hebben sommige wetenschappers twijfels over AI in de wetenschap en de huidige trainingsdata, zo bleek uit een enquête onder wetenschappers uitgevoerd door het wetenschappelijke tijdschrift Nature. Bovendien is het merendeel van het wetenschappelijk onderzoek uitgevoerd op mannelijke proefpersonen met een Westerse afkomst. Gebruik je die data om AI-software te trainen, geeft dat mogelijk misleidende, onbetrouwbare diagnoses en behandelplannen. Zo bleek een AI-systeem dat huidkanker opspoort, minder nauwkeurig tumoren te detecteren bij mensen met een donkere huidskleur, doordat de trainingsdata vooral foto’s van blanke patiënten bevatte.
Nieuwe antibiotica
Foutmarges blijven voorlopig dus aanwezig, al is het niet bij elk onderzoek een groot probleem. Recent ontdekten internationale wetenschappers met AI een nieuw antibioticum tegen de resistente MRSA-bacterie. De AI analyseerde de moleculaire vorm van bestaande antibiotica en voorspelde vervolgens welke andere stofjes ook bacteriën doden. Eén van deze stoffen bleek in muizenproeven effectief te zijn tegen MRSA. Eerder ontdekten Leidse onderzoekers ook al 42 mogelijk nieuwe antibiotica met kunstmatige intelligentie. In zo’n geval waarbij wetenschappers AI-uitkomsten controleren in het lab, is een mogelijk fout oordeel dus geen probleem. Kunstmatige intelligentie helpt wetenschappers dan vooral om grote hoeveelheden data te analyseren en patronen te herkennen die voor mensen niet direct zichtbaar zijn.
De voorbeelden illustreren het duidelijk: niet alleen scholieren gebruiken AI om hun huiswerk te maken, ook wetenschappers werken er al enige tijd mee. Het biedt bijna oneindig veel nieuwe mogelijkheden in het onderzoek. Maar of het nu gaat om een AI-systeem dat afbeeldingen of liedjes genereert, of een dat op moleculair niveau nieuwe medicijnen bouwt: het resultaat staat of valt met de trainingsdata. Dus moeten de systemen met voldoende gevarieerde, en kwalitatief goede data getraind worden én moet die data beschikbaar gesteld worden. Zeker als de resultaten vervolgens te controleren zijn, zal AI geen afbraak doen aan de kwaliteit van het onderzoek, maar ons de komende decennia juist baanbrekende wetenschappelijke ontdekkingen en innovaties brengen.
Bronnen
- Wong, Felix, et al. “Discovery of a structural class of antibiotics with explainable deep learning.” Nature 626.7997 (2024): 177-185.
- Sun, Jinglin, et al. “A novel deep learning approach for diagnosing Alzheimer’s disease based on eye-tracking data.” Frontiers in Human Neuroscience 16 (2022): 972773.
- Bockting, Claudi L., et al. “Living guidelines for generative AI—why scientists must oversee its use.” Nature 622.7984 (2023): 693-696.
- Van Noorden, Richard, and Jeffrey M. Perkel. “AI and science: what 1,600 researchers think.” Nature 621.7980 (2023): 672-675.
- Besse, Philippe, et al. “Can everyday ai be ethical? machine learning algorithm fairness.” Machine Learning Algorithm Fairness (May 20, 2018). Statistiques et Société 6.3 (2019).
- Ribeiro, Marco Tulio, Sameer Singh, and Carlos Guestrin. “Why should i trust you?” Explaining the predictions of any classifier.” 2016.
- Mock, Marissa, et al. “AI can help to speed up drug discovery—but only if we give it the right data.” Nature 621.7979 (2023): 467-470.
- Daneshjou, Roxana, et al. “Disparities in dermatology AI performance on a diverse, curated clinical image set.” Science advances 8.31 (2022): eabq6147.
- Ball, Philip. “Is AI leading to a reproducibility crisis in science?.” Nature 624.7990 (2023): 22-25.