6 Matching Annotations
  1. Aug 2022
    1. Dat het jaren duurde om een wankel risicomodel af te schaffen, is te wijten aan gebrek aan urgentie, laat de IND desgevraagd weten aan NRC. Maar uit interne mailwisselingen blijkt dat de overheidsdienst ook geen zin heeft in publiciteit. Een medewerker schrijft: „Hoe kunnen we het aanpassen zodat er geen risico op imagoschade voor de IND is?” Er is „geen goed verhaal” om de buitenwereld uit te leggen waarom het systeem is uitgezet, zegt IND’s privacyfunctionaris. „We willen juist meer datagestuurd werken (…). Dat moet gebaseerd zijn op vertrouwen en zorgvuldigheid. Dat kan weggeslagen worden door het bekend worden van een verouderd datamodel dat niet meer gebruikt wordt.”

      Meer data-gedreven werken. Vertaling: minder mens-gedreven werken.

    2. In 2017 vergelijkt de afdeling juridische zaken van de IND de ervaring van Typhoon met het risicomodel van de IND. „Deze methode behelst feitelijk etnisch profileren, leidt tot discriminatoire bejegening van mensen, louter vanwege afkomst, terwijl een deugdelijke onderbouwing ontbreekt.” De juristen adviseren het „model te staken en gestaakt te houden” en de risicoprofielen te verwijderen. Met dit advies gebeurt niets. Gebrek aan prioriteit, zegt de IND achteraf.

      In werking bij de IND: organisatorische knelpunten

    1. De vraag is hoe het kan dat, ondanks de maatschappelijke schijnwerpers, dergelijke signalen zich blijven aandienen. Uit eerder onderzoek door Hooghiemstra & Partners van vorig jaar in opdracht van het College voor de Rechten van de Mens, bleek dat gemeenten die algoritmes inzetten welwillend zijn om het gebruik van digitale systemen in lijn te krijgen met mensenrechten, maar nog niet goed weten hoe zij dit moeten doen. Zo zitten organisatorische knelpunten tussen afdelingen en partijen een goede samenwerking soms in de weg.

      Dus het operationaliseren van ethiek zit hem vooral in samenwerking binnen organisatie!

    1. De motie leidt er uiteindelijk toe dat overheidsorganen het IAMA moeten gaan uitvoeren en – waar mogelijk – de uitgevoerde assessments moeten openbaar maken. Verplichte toepassing van het IAMA betekent niet dat zij daarmee extra verantwoordelijkheden krijgen ter waarborging van mensenrechten of het maken van zorgvuldige beslissingen. Deze verplichtingen hebben overheidsorganen reeds op grond van het staats- en bestuursrecht waarvan de mensenrechten deel uitmaken.

      Wordt echt verplicht dus!

    2. Ten eerste stelt de motie voor het IAMA alleen te verplichten voorafgaand aan het gebruik van algoritmes. Het IAMA kan echter ook dienen als instrument voor reflectie wanneer een algoritme al wordt ingezet.

      IAMA is geen verplichting tot monitoring, alleen achteraf