Contestable AI – Democratische controle op publieke algoritmes

Kars Alfrink – 6 maart 2025

Wat is Contestable AI?

In dit college sprak Kars Alfrink over het belang van Contestable AI: systemen waarin kunstmatige intelligentie wordt gebruikt binnen het publieke domein, maar die openstaan voor tegenspraak en herziening. Hij definieert het als “het gebruik van feedback-gestuurde data-analyse en -verwerking ter ondersteuning of automatisering van beleid in de publieke sector.”

Autonomie en AI

Alfrink stelt dat AI de autonomie van burgers niet mag ondermijnen. Autonomie betekent dat je een juist beeld hebt van je situatie én dat je daar naar kunt handelen. Wanneer een AI-besluit je vrijheid beperkt, moet er een manier zijn om dat aan te kaarten of te corrigeren.

Dat vraagt om transparantie, bruikbaarheid en betrokkenheid. Denk aan veldonderzoek, gebruikerstesten, en mechanismen die mensen het gevoel geven dat ze invloed kunnen uitoefenen.

Voorbeeld uit de praktijk: laadpalen

Een voorbeeld dat Kars aanhaalde is het beleid rondom laadpalen voor elektrische auto’s. AI bepaalt waar nieuwe palen komen op basis van data en beleidsdoelen (zoals duurzaamheid en gedeeld gebruik). Maar wat als dat beleid botst met lokale behoeften? Dan moet er ruimte zijn om dat beleid te betwisten – en dat kan alleen als het systeem contestable is.

Van gesloten naar open systemen

Een contestable systeem is ontworpen voor discussie. Het staat open voor inbreng van verschillende belanghebbenden en laat ruimte voor interpretatie, afwijking en correctie. Het verschil tussen “contested” en “contestable” is hierbij belangrijk: bij de eerste is er verzet, bij de tweede is verzet ingebouwd als mogelijkheid.

Hoe ontwerp je een contestable systeem?

  • Interventiemogelijkheden: gebruikers moeten AI-besluiten kunnen betwisten.
  • Dialoog: er moet ruimte zijn voor uitwisseling tussen mensen, ontwerpers en beleidsmakers.
  • Transparantie: mensen moeten begrijpen wat het systeem doet en waarom.
  • Responsplicht: als iemand bezwaar maakt, moet daar serieus op worden gereageerd.

Concrete tools en middelen

Om contestability mogelijk te maken, kunnen ontwerpers onder andere gebruik maken van:

  • Een algoritmeregister waarin publieke AI-systemen worden beschreven en verantwoord.
  • Waarschuwingssystemen die menselijk toezicht inschakelen wanneer patronen afwijken of omstreden zijn.
  • Dialooginterfaces waarin gebruikers kunnen aangeven dat een beslissing niet klopt, en waarom.

Waarom dit belangrijk is

In een samenleving waarin AI steeds vaker beleid mede vormgeeft, moeten we zorgen dat democratische waarden niet verloren gaan. Contestable AI helpt om technologie in dienst te stellen van mensen – niet andersom.