College: verplichte melding én uitleg bij gebruik algoritmes door overheid
De overheid gebruikt steeds vaker algoritmes bij besluitvorming. Algoritmes bepalen daardoor mede de uitkomst van die besluiten. Als burger hebben we dat niet altijd door, en dat is ongewenst. Want wat kun je doen als zo'n algoritme een fout maakt of discrimineert? Het College voor de Rechten van de Mens roept op tot een verplichte melding én een begrijpelijke uitleg in elk besluit dat een burger direct raakt. Dit moet in de wet vastgelegd worden. In een vandaag verschenen paper leggen we uit waarom die verplichting er moet komen en hoe dat moet worden geregeld.
Presentator Frederique legt uit: “De overheid neemt dagelijks veel beslissingen over burgers. Denk aan vergunningen, boetes of uitkeringen. De overheid gebruikt hiervoor algoritmes. Vaak gaat dit goed, maar soms gaat het fout en kunnen algoritmes discrimineren. Het is daarom belangrijk dat de overheid open is over het gebruik van algoritmes.
In deze video leggen we je meer uit over algoritmes, hoe de overheid open moet zijn over het gebruik en wat jij kunt doen.
Aan wat voor algoritmes moet je denken? Een voorbeeld is een softwareprogramma waarin via een stappenplan wordt bepaald of jij recht hebt op een uitkering. Het algoritme kijkt onder andere naar de hoogte van je inkomen, naar je eigen vermogen en andere factoren die belangrijk kunnen zijn. Het algoritme zet die stappen automatisch. Hierdoor kan de overheid sneller beslissingen nemen.
Een ander voorbeeld is een algoritme dat het risico op overtredingen van burgers voorspelt.
Algoritmes kunnen eenvoudige zijn, een soort beslisbomen die aan concrete criteria toetsen: ‘als dit, dan dat’. Maar er zijn ook algoritmes die heel ingewikkeld zijn, zoals zelflerende algoritmes.
Er kunnen verschillende dingen fout gaan. Zo kan het zijn dat jij zelf een fout maakt bij een aanvraag, door per ongeluk de verkeerde gegevens aan te leveren. Of de overheid heeft nog oude informatie over jou, omdat je net verhuisd bent. Dan gaat er verkeerde informatie het algoritme in.
Ook kunnen algoritmes discrimineren. In de voorspellingen van een algoritme kunnen vooroordelen zitten. Zoals ‘alleenstaande moeders frauderen vaker met een bijstandsuitkering'.
Voordat er algoritmes waren kwam discriminatie ook voor, maar een belangrijk verschil is dat een algoritmes een fout automatisch op veel burgers tegelijk toepast. Ze systematiseren fouten. Hierdoor is het effect veel groter dan bij een enkele verkeerde beslissing van een ambtenaar.
Daarnaast kunnen algoritmes een probleem geven voor de rechtsbescherming. Je moet je recht kunnen halen als je onrecht wordt aangedaan. Je kunt bezwaar maken tegen een besluit, en je mag in beroep bij de rechter. Maar als je niet weet dat een besluit deels door een algoritme is bepaald, kun je je niet tegen dat onderdeel verweren.
Daar komt bij dat het zonder technische kennis soms niet helder is hoe het algoritme voor jou uitpakte, zeker niet bij de meer ingewikkelde algoritmes.
Maar hoe weet je nou wanneer er een algoritme is gebruikt voor een beslissing? Dat weet je nu vaak niet! En juist daarom vinden wij dat de overheid bij elk besluit moet vertellen of er een algoritme is gebruikt en hoe het werkt. In een besluitbrief zou in begrijpelijke taal moeten staan hoe het algoritme voor jou heeft uitgepakt. Algemene informatie over algoritmes kan de overheid in het centrale algoritmeregister bijhouden.
Heb je een besluit gehad waarvoor de overheid algoritmes heeft gebruikt, maar begrijp je niet hoe? Of heb je een duidelijke aanwijzing dat de overheid een algoritme heeft gebruikt zonder dit te melden? Dan heb je recht op uitleg!
Ga in bezwaar en geef hierbij aan dat de uitleg onvoldoende is. In de besluitbrief staat, als het goed is, altijd onderaan een zin ‘ben je het niet eens met dit besluit...’. Daarna volgt een uitleg wat je moet doen .
Iedereen kan bij ons terecht met vragen en meldingen over hoe algoritmes van de overheid impact kunnen hebben op zijn of haar rechten. In bepaalde specifieke gevallen kunnen wij kijken of er sprake is van discriminatie.
Kortom, algoritmes kunnen voordelen opleveren voor de overheid en de samenleving. . Maar we moeten wel kritisch naar ze blijven kijken. En als de overheid beslissingen over jouw neemt – met of zonder algoritme - dan heb je gewoon recht op uitleg. Zo kun jij opkomen voor je rechten.”
Algoritmes als hulpmiddel van overheden om besluiten te nemen: het komt steeds vaker voor. Een voorgeprogrammeerd systeem bepaalt bijvoorbeeld of iemand aan de vergunningseisen voldoet. Ook worden algoritmes gebruikt die het risico op overtredingen van burgers voorspellen. Dit soort algoritmes kunnen zowel ingewikkeld (zoals AI-toepassingen met zelflerend vermogen) als simpel zijn (denk aan een eenvoudige beslisboom met toetscriteria).
Algoritmes kunnen discrimineren
Algoritmes kunnen discrimineren. In algoritmes zijn vaak voorwaarden voor het toepassen van regels of voorspellingen over gedrag van burgers opgenomen. Als die voorwaarden en voorspellingen met vooroordelen over groepen mensen zijn ontworpen, dan zal het algoritme discrimineren. Ook voordat de overheid algoritmes gebruikte om besluiten te nemen kon er natuurlijk discriminatie voorkomen. Een belangrijk verschil met algoritmes is dat deze automatisch op veel burgers tegelijk worden toegepast. Hierdoor is het effect van fouten in het algoritme veel groter dan bij een enkele verkeerde beslissing van een ambtenaar.
Een ander verschil is de rechtsbescherming. Je kunt als burger bezwaar maken tegen een besluit, en je mag in beroep bij de rechter. Maar als je niet weet dat een besluit voor een deel door een algoritme is bepaald, kun je je niet tegen dat onderdeel verweren. Daar komt bij dat het zonder technische kennis soms niet helder is hoe het algoritme voor jou uitwerkte - zeker niet bij de meer ingewikkelde algoritmes. Toegang tot het recht is daarom in de praktijk moeilijk te realiseren.
Verplichte transparantie: algoritmes steeds melden én uitleggen
Rechtsbescherming tegen discriminatie door algoritmes moet op orde worden gebracht. Daarom vindt het College dat overheden algoritmegebruik bij besluiten die burgers rechtstreeks raken altijd moet melden in de besluitbrief. Bij zo'n melding moet het algoritmegebruik bovendien in begrijpelijke taal worden uitgelegd. Dit is niet meer dan logisch wanneer algoritmes een normaal onderdeel zijn geworden van het besluitvormingsproces. Overheden moeten besluiten ook nu al toelichten ('motiveren'). Voor de helderheid wil het College dat die verplichting expliciet in de Algemene wet bestuursrecht wordt opgenomen.
Intellectueel eigendom en belang van fraudeopsporing
Een argument dat wel eens gebruikt wordt om niet open te zijn over algoritmes is dat de ontwikkelaars ervan hun 'intellectueel eigendom' willen beschermen: 'het geheim van de smid'. De techniek van een openbaar algoritme zou door concurrenten gekopieerd en verkocht kunnen worden. Maar: het belang van de burger op openheid door de overheid weegt zwaarder. De overheid mag daarom alleen in zee gaan met bedrijven die bereid zijn open te zijn over de manier waarop hun algoritmes werken.
In bijzondere gevallen kan het begrijpelijk zijn dat de overheid voorzichtig is met het delen van informatie over hoe algoritmes werken. Als algoritmes fraude helpen opsporen en openbaar worden kan dat fraudeurs helpen. Ze kunnen dan door hun gedrag aan te passen controles omzeilen. Mocht zoiets zich voordoen, dan pleit het College voor een onafhankelijke keuring van het algoritme door een externe onafhankelijke partij. Discriminatierisico’s kunnen dan vooraf worden afgevangen. Alleen algoritmes die door die keuring heen komen, mag de overheid gebruiken.
Drie adviezen
Openheid over algoritmes is een eerste en onmisbare voorwaarde om de burger te beschermen tegen het risico op discriminatie door algoritmegebruik. Het College roept daarom de overheid op:
-
Meld en verwijs naar het algoritmeregister
Van algoritmegebruik moet altijd melding gedaan worden in een besluit. In de brief kan de overheid een kenmerk van het gebruikte algoritme zetten. Hiermee kan het algoritme worden opgezocht in het algoritmeregister van de overheid. Alle uitgebreide technische informatie over het algoritmes is daar beschikbaar. Die technische informatie is belangrijk voor burgers besluiten willen aanvechten en hun advocaten, maar ook voor journalisten en belangenorganisaties die willen controleren of de algoritmes die de overheid gebruikt wel in lijn zijn met mensenrechten. Voorwaarde is dan wel dat het algoritmeregister van de overheid compleet is.
-
Leg het algoritme begrijpelijk uit in het besluit
Naast melding en verwijzing is begrijpelijke uitleg van de overheid belangrijk. De overheid moet de burger niet overladen met technische informatie. Het bestuursorgaan legt in de besluitbrief uit hoe dat algoritme werkt.
-
Neem de verplichting op transparantie op in de wet
De wet kent nu al het motiveringsbeginsel: de overheid moet nu al uitleggen waarom en hoe ze tot besluiten over burgers zijn gekomen. Wanneer de overheid algoritmes gebruikt, spreekt het eigenlijk voor zich dat ook dat algoritme wordt uitgelegd. Om deze verplichting te garanderen roept het College op openheid over algoritmes als eis in de Algemene wet bestuursrecht op te nemen.