In het digitale tijdperk is het huidige artikel 1 grondwet ‘maar’ het begin!
De aandacht voor de negatieve aspecten van algoritmische besluitvorming neemt de laatste jaren gestaag toe. Zo heeft de toeslagenaffaire discriminatoir overheidsoptreden dat is ingegeven door algoritmische processen en in strijd is met het gelijkheidsbeginsel van artikel 1 Grondwet, hoger op de maatschappelijke en wetenschappelijke agenda gezet. De publieke sector gebruikt supervised machine learning algoritmes namelijk steeds vaker voor de selectie van casus voor handmatige behandeling (denk aan de Belastingdienst) of voor het voorspellen van toekomstig gedrag van individuen (denk aan de politie), maar deze algoritmes dragen het risico met zich om reeds bestaande biases, op grond van bijvoorbeeld nationaliteit, te reproduceren of zelfs te versterken. In een notendop krijgt dit soort algoritmes de capaciteit aangeleerd om gebeurtenissen te voorspellen of gevallen te classificeren. Deze capaciteit wordt verworven doordat de ontwerper het algoritme blootstelt aan het type voorspelling of classificatie dat gewenst is aan de hand van een dataset met variabelen (bijvoorbeeld bepaald menselijk gedrag) en daarbij passende labels (bijvoorbeeld ‘fraudulent’) (samen: ‘training’ dataset). Door het feit dat ze blootgesteld worden aan de gewenste type uitkomst, onderscheiden deze algoritmes zich van unsupervised machine learning algoritmes die op eigen houtje en zonder blootstelling vooraf verbanden binnen datasets verkennen.
Alhoewel deze aandacht valt toe te juichen, richt zij zich voornamelijk op bias op grond van klassieke persoonskenmerken zoals etniciteit, gender of religie, terwijl supervised machine learning algoritmes het gevaar creëren van zogenaamde ‘ad hoc bias’. Dit is bias die zich niet per definitie richt op klassieke persoonskenmerken, maar die plaatsvindt op basis van random persoonskenmerken door 1) de selectie van bepaalde dataclusters voorafgaand aan de trainingsfase van het algoritme en 2) de inherente werking van machine learning algoritmes, namelijk het zoeken naar verbanden tussen grote datasets. De hieruit resulterende bias is ‘random’ omdat deze niet in overeenstemming is met vooraf gedefinieerde, en dus ook niet met juridisch beschermde, groepen. Houser & Sanders schrijven over het fictieve voorbeeld waarin een algoritme een correlatie opvangt tussen mensen met teckels als huisdieren en het opgeven van hogere zorgkosten — een bron van potentiële discriminatie op grond van random in plaats van beschermde persoonskenmerken. Het problematische hieraan is dat een dergelijk algoritme wel correlatie uitwijst, maar geen causaliteit, en dat dus niet ieder baasje van een teckel hogere zorgkosten opgeeft, terwijl het algoritme wel zo opgevat kan worden. Tegelijkertijd worden in onze huidige maatschappij baasjes van teckels niet gezien als een zich onderscheidende groep en bestaat dus ook het gevaar dat zulke ad hoc biases überhaupt niet opgemerkt worden door het menselijk oog. Wanneer publieke instanties hun beslissingen op dergelijke algoritmes baseren, kunnen onterecht significante en nadelige gevolgen voor individuen ontstaan.
De juridisch-wetenschappelijke literatuur over ad hoc bias is zeer beperkt, terwijl deze problematiek de vraag oproept of onze huidige opvatting over discriminatie nog wel strookt met de realiteit. Artikel 1 Grondwet bepaalt dat: “Allen die zich in Nederland bevinden, (…) in gelijke gevallen gelijk [worden] behandeld. Discriminatie wegens godsdienst, levensovertuiging, politieke gezindheid, ras, geslacht of op welke grond dan ook, is niet toegestaan”. De zinsnede “op welke grond dan ook” geeft aan dat de grondwettelijke discriminatiegronden niet limitatief zijn. Volgens Gerards geven de nadrukkelijk vermelde persoonskenmerken tegelijkertijd, in lijn met de intentie van de grondwetgever, blijk van een sterkere normatieve afkeuring wanneer discriminatie op die gronden plaatsvindt en kunnen bij het wijzen van rechterlijke uitspraken richtinggevend functioneren. Het College voor de Rechten van de Mens pleit bijvoorbeeld voor uitbreiding van deze gronden met seksuele oriëntatie. Dit alles wekt de indruk dat Artikel 1 Grondwet in symbolische en praktische zin dus wel degelijk enkel voor bepaalde groepen geldt, die eventueel aangevuld worden als de tijdgeest verandert.
Om het grondwettelijk gelijkheidsbeginsel toekomstbesteding te maken, pleit Gerards niet voor het uitbreiden maar juist voor het verwijderen van voornoemde opsomming van discriminatiegronden. Ook vanuit de problematiek van ad hoc bias kan haar voorstel positief worden beoordeeld, omdat elke vorm van bias, ook richting niet-beschermde groepen, problematisch is in deze context. Uiteraard kan beargumenteerd worden dat vooringenomenheid op grond van huisdierenbezit minder mensonterend is dan op grond van bijvoorbeeld etniciteit. Maar daar kan tegen in worden gebracht dat bij algoritmische besluitvorming de scheidslijn tussen correlatie en causaliteit in zulke mate vervaagt dat we ons kunnen afvragen of de desbetreffende discriminatiegrond wel het juiste criterium is om te bepalen of discriminatie afkeurenswaardig is. Zou het leidende criterium niet in plaats daarvan causaliteit en daarmee gerechtvaardigdheid van het onderscheid moeten zijn? Als we via anti-discriminatiewetgeving proberen om ongerechtvaardigd onderscheid te bestrijden, moeten we dan niet achterwege laten om de gronden in de digitale context nadrukkelijk te vermelden en deze daarmee uitbreiden naar virtueel iedere grond? Door causaliteit als juridisch leidend criterium te nemen, zouden we wellicht beter kunnen beoordelen of het legitiem is om significante beslissingen over individuen door een algoritme in te geven. Een goed begin zou zijn om enkel de eerste zin van het huidige artikel 1 Grondwet te handhaven, waardoor het als volgt zou luiden: “Allen die zich in Nederland bevinden, worden in gelijke gevallen gelijk behandeld”.
Op grond van onze huidige discriminatieopvatting is vooringenomenheid op basis van etniciteit andere koek dan vooringenomenheid op basis van huisdierenbezit. Maar de digitale context illustreert juist dat vooringenomenheid op grond van ieder persoonskenmerk problematisch is, omdat algoritmes geen causale verbanden maar correlaties uitwijzen en de publieke instanties die zich laten adviseren door deze systemen dat uit het oog kunnen verliezen. Omdat discriminatie zou moeten voorkomen dat mensen benadeeld worden op grond van voor het besluit irrelevante factoren, kan ad hoc bias aanleiding geven om vooraf gedefinieerde (grondwettelijke) discriminatiegronden los te laten. Per geval zou dan moeten worden beoordeeld of een causaal verband bestaat tussen het persoonskenmerk in kwestie en het algoritmisch advies. Algoritmes kunnen immers niet enkel discriminatoir uitwerken op een gelimiteerde set vooraf gedefinieerde groepen (bijvoorbeeld Antilianen, vrouwen of sikhs), maar ook op door het algoritme ad hoc, op basis van virtueel elk persoonskenmerk denkbaar, gecreëerde groepen. Hoe dan ook geeft dit blog hopelijk aanleiding om het debat over ad hoc biases door algoritmes en onze huidige opvatting over discriminatie intensiever te voeren.
Reacties