Nieuws

Waarom populariteit geen maatstaf is voor medische betrouwbaarheid

Aram Zegerius

Aram Zegerius

Technisch geweten

Afgelopen weekend publiceerde The Guardian onderzoek dat de wenkbrauwen doet fronsen. Een analyse van meer dan 50.000 gezondheidsgerelateerde zoekopdrachten in Duitsland toont aan dat Google's AI Overviews – de AI-samenvattingen bovenaan zoekresultaten – YouTube vaker citeert dan welke medische website dan ook.

De cijfers zijn ontnuchterend:

  • YouTube: 4,43% van alle citaties (20.621 van 465.823)
  • NDR.de (Duitse publieke omroep): 3,04%
  • MSD Manuals: 2,08%
  • Netdoktor.de: 1,61%

Geen enkel ziekenhuis of academische instelling komt in de buurt van YouTube's dominantie. Sterker nog: academische journals vertegenwoordigen slechts 0,48% van alle citaties. Overheidsinstanties voor volksgezondheid samen nog geen 1%.

Het probleem is niet YouTube

Laten we eerlijk zijn: er staat waardevolle medische content op YouTube. Universitaire ziekenhuizen publiceren operatievideo's. Cardiologen leggen ECG-interpretatie uit. Dermatologen tonen diagnostische technieken.

Google's eigen verweer wijst hier ook op: van de 25 meest geciteerde YouTube-video's in het onderzoek kwam 96% van medische kanalen.

Maar hier zit de crux: die 25 video's vertegenwoordigen minder dan 1% van alle YouTube-links die AI Overviews citeert voor gezondheidsvragen. Wat gebeurt er met de andere 99%? De onderzoekers zijn voorzichtig: "With the rest of the videos, the situation could be very different."

Populariteit versus betrouwbaarheid

Hannah van Kolfschooten, onderzoeker aan de Universiteit van Basel gespecialiseerd in AI en gezondheidsrecht, raakt de kern:

"The findings show that these risks are embedded in the way AI Overviews are designed. In particular, the heavy reliance on YouTube rather than on public health authorities or medical institutions suggests that visibility and popularity, rather than medical reliability, is the central driver for health knowledge."

Dat is het probleem. De algoritmes die bepalen wat AI-systemen citeren, optimaliseren niet voor medische accuraatheid. Ze optimaliseren voor engagement, views en klikgedrag.

De onderzoekers schatten dat slechts 34% van de geciteerde bronnen formele waarborgen heeft voor medische betrouwbaarheid. De overige 66% niet. Een video van een wellness-influencer met een miljoen views kan algoritmisch "waardevoller" lijken dan een NHG-richtlijn. Broscience en lifestylegoeroes krijgen hetzelfde gewicht als peer-reviewed onderzoek.

De cirkel sluit zich

Online discussies over dit onderzoek wijzen op een verontrustend fenomeen: AI-systemen beginnen steeds vaker AI-gegenereerde content te citeren. Video's met AI-voiceovers en AI-gegenereerde beelden verschijnen als bronnen voor AI-samenvattingen.

Dit creëert een gesloten circuit waarin informatie niet meer terug te voeren is op primaire bronnen – klinische trials of consensusrichtlijnen. De oorsprong van medische claims wordt steeds ondoorzichtiger.

Voor consumenten is dit zorgwekkend, maar voor zorgprofessionals is het simpelweg onwerkbaar.

Wat zorgprofessionals nodig hebben

Een huisarts die snel wil weten of een medicatie veilig is tijdens de zwangerschap heeft geen behoefte aan een YouTube-compilatie. Een verpleegkundige die de nieuwste sepsis-richtlijnen zoekt heeft niets aan content die populair is maar mogelijk verouderd.

Zorgprofessionals hebben behoefte aan informatie die traceerbaar is naar specifieke bronnen, gebaseerd op recente richtlijnen, en afgestemd op de klinische praktijk.

Dat kunnen algemene AI-zoekmachines niet bieden. Ze zijn gebouwd om de gemiddelde vraag van de gemiddelde gebruiker te beantwoorden – niet om te voldoen aan de eisen van professionele medische besluitvorming.

Hoe Ask Aletta dit anders doet

Bij Ask Aletta hanteren we een ander principe: de bron bepaalt de waarde, niet de populariteit.

Onze medische AI-assistent put uitsluitend uit geverifieerde bronnen: Nederlandse en Europese richtlijnen en peer-reviewed medische literatuur. We gebruiken geen YouTube, wellness-blogs of andere content waarvan de herkomst onduidelijk is.

Elk antwoord bevat directe links naar de bronnen. Niet omdat we transparantie als marketingterm gebruiken, maar omdat zorgprofessionals het recht hebben om zelf te verifiëren wat een AI-systeem beweert.

Ask Aletta begrijpt ook je discipline. Een huisarts krijgt andere informatie dan een kinderarts of een SEH-arts. Niet omdat de medische feiten verschillen, maar omdat de relevante richtlijnen en de klinische context anders zijn.

De toekomst van medische informatievoorziening

Het onderzoek van SE Ranking is een momentopname uit december 2025, uitgevoerd in Duitsland. De onderzoekers erkennen de beperkingen: resultaten kunnen variëren per regio, per tijdstip, per vraagformulering.

Maar de onderliggende dynamiek is universeel. Zolang AI-systemen optimaliseren voor populariteit en engagement, zullen ze suboptimale bronnen blijven citeren voor medische vragen.

De oplossing ligt niet in het verbeteren van algemene AI-zoekmachines. De oplossing ligt in gespecialiseerde systemen die vanaf de basis zijn ontworpen voor medische betrouwbaarheid.