Waarom de overheid open moet zijn over algoritmes en wat jij kunt doen
De overheid neemt dagelijks veel beslissingen over burgers. Denk aan vergunningen, boetes of uitkeringen. De overheid gebruikt hiervoor algoritmes. Vaak gaat dit goed, maar soms gaat het fout en kunnen algoritmes discrimineren. Het is daarom belangrijk dat de overheid open is over het gebruik van algoritmes. In deze video leggen we je meer uit over algoritmes, hoe de overheid open moet zijn over het gebruik en wat jij kunt doen.
Presentator Frederique legt uit: “De overheid neemt dagelijks veel beslissingen over burgers. Denk aan vergunningen, boetes of uitkeringen. De overheid gebruikt hiervoor algoritmes. Vaak gaat dit goed, maar soms gaat het fout en kunnen algoritmes discrimineren. Het is daarom belangrijk dat de overheid open is over het gebruik van algoritmes.
In deze video leggen we je meer uit over algoritmes, hoe de overheid open moet zijn over het gebruik en wat jij kunt doen.
Aan wat voor algoritmes moet je denken? Een voorbeeld is een softwareprogramma waarin via een stappenplan wordt bepaald of jij recht hebt op een uitkering. Het algoritme kijkt onder andere naar de hoogte van je inkomen, naar je eigen vermogen en andere factoren die belangrijk kunnen zijn. Het algoritme zet die stappen automatisch. Hierdoor kan de overheid sneller beslissingen nemen.
Een ander voorbeeld is een algoritme dat het risico op overtredingen van burgers voorspelt.
Algoritmes kunnen eenvoudige zijn, een soort beslisbomen die aan concrete criteria toetsen: ‘als dit, dan dat’. Maar er zijn ook algoritmes die heel ingewikkeld zijn, zoals zelflerende algoritmes.
Er kunnen verschillende dingen fout gaan. Zo kan het zijn dat jij zelf een fout maakt bij een aanvraag, door per ongeluk de verkeerde gegevens aan te leveren. Of de overheid heeft nog oude informatie over jou, omdat je net verhuisd bent. Dan gaat er verkeerde informatie het algoritme in.
Ook kunnen algoritmes discrimineren. In de voorspellingen van een algoritme kunnen vooroordelen zitten. Zoals ‘alleenstaande moeders frauderen vaker met een bijstandsuitkering'.
Voordat er algoritmes waren kwam discriminatie ook voor, maar een belangrijk verschil is dat een algoritmes een fout automatisch op veel burgers tegelijk toepast. Ze systematiseren fouten. Hierdoor is het effect veel groter dan bij een enkele verkeerde beslissing van een ambtenaar.
Daarnaast kunnen algoritmes een probleem geven voor de rechtsbescherming. Je moet je recht kunnen halen als je onrecht wordt aangedaan. Je kunt bezwaar maken tegen een besluit, en je mag in beroep bij de rechter. Maar als je niet weet dat een besluit deels door een algoritme is bepaald, kun je je niet tegen dat onderdeel verweren.
Daar komt bij dat het zonder technische kennis soms niet helder is hoe het algoritme voor jou uitpakte, zeker niet bij de meer ingewikkelde algoritmes.
Maar hoe weet je nou wanneer er een algoritme is gebruikt voor een beslissing? Dat weet je nu vaak niet! En juist daarom vinden wij dat de overheid bij elk besluit moet vertellen of er een algoritme is gebruikt en hoe het werkt. In een besluitbrief zou in begrijpelijke taal moeten staan hoe het algoritme voor jou heeft uitgepakt. Algemene informatie over algoritmes kan de overheid in het centrale algoritmeregister bijhouden.
Heb je een besluit gehad waarvoor de overheid algoritmes heeft gebruikt, maar begrijp je niet hoe? Of heb je een duidelijke aanwijzing dat de overheid een algoritme heeft gebruikt zonder dit te melden? Dan heb je recht op uitleg!
Ga in bezwaar en geef hierbij aan dat de uitleg onvoldoende is. In de besluitbrief staat, als het goed is, altijd onderaan een zin ‘ben je het niet eens met dit besluit...’. Daarna volgt een uitleg wat je moet doen .
Iedereen kan bij ons terecht met vragen en meldingen over hoe algoritmes van de overheid impact kunnen hebben op zijn of haar rechten. In bepaalde specifieke gevallen kunnen wij kijken of er sprake is van discriminatie.
Kortom, algoritmes kunnen voordelen opleveren voor de overheid en de samenleving. . Maar we moeten wel kritisch naar ze blijven kijken. En als de overheid beslissingen over jouw neemt – met of zonder algoritme - dan heb je gewoon recht op uitleg. Zo kun jij opkomen voor je rechten.”