{"id":108511,"date":"2024-06-08T13:58:31","date_gmt":"2024-06-08T13:58:31","guid":{"rendered":"https:\/\/wpstaging.afromagazine.eu\/uiteraard-discrimineren-algoritmes-daar-zijn-ze-voor-gemaakt\/"},"modified":"2024-06-08T13:58:31","modified_gmt":"2024-06-08T13:58:31","slug":"uiteraard-discrimineren-algoritmes-daar-zijn-ze-voor-gemaakt","status":"publish","type":"post","link":"https:\/\/afromagazine.nl\/en\/uiteraard-discrimineren-algoritmes-daar-zijn-ze-voor-gemaakt\/","title":{"rendered":"Uiteraard discrimineren algoritmes, daar zijn ze voor gemaakt"},"content":{"rendered":"<div id=\"afrom-2194951559\" class=\"afrom-voor-inhoud-singlepost afrom-entity-placement\"><a href=\"https:\/\/ghanatours.nl\/keti-koti-pelgrimstocht\/\" aria-label=\"AFRO-BANNER-728X90\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/afromagazine.nl\/wp-content\/uploads\/2026\/03\/AFRO-BANNER-728X90.webp\" alt=\"\"  srcset=\"https:\/\/afromagazine.nl\/wp-content\/uploads\/2026\/03\/AFRO-BANNER-728X90.webp 728w, https:\/\/afromagazine.nl\/wp-content\/uploads\/2026\/03\/AFRO-BANNER-728X90-300x37.webp 300w\" sizes=\"(max-width: 728px) 100vw, 728px\" class=\"no-lazyload\" width=\"728\" height=\"90\"  style=\"display: inline-block;\" \/><\/a><\/div><figure role=\"group\" class=\"caption caption-drupal-media align-right\">\n<article>\n<div class=\"field field-media--field-media-image field-formatter-image field-name-field-media-image field-type-image field-label-hidden has-single\">\n<figure class=\"field-type-image__figure image-count-1\">\n<div class=\"field-type-image__item\">\n        <img loading=\"lazy\" decoding=\"async\" src=\"\/sites\/default\/files\/styles\/mediaklein\/public\/2024-06\/pieter%20de%20kock.jpg\" width=\"120\" height=\"162\" alt=\"Peter de Kock, Pandora Intelligence\" class=\"image-style-mediaklein\" \/><\/div>\n<\/figure>\n<\/div>\n<\/article><figcaption><em>Peter de Kock, Pandora Intelligence<\/em><\/figcaption><\/figure>\n<p><em>Een expertquote van Peter de Kock, Pandora Intelligence<\/em><\/p>\n<p>Afgelopen week publiceerde Trouw een artikel met als ondertitel \u201c <a href=\"http:\/\/l.perssupport.nl\/ls\/click?upn=u001.bx6Nt7gI8AGRkKV1KlOno6RrgW0uTEqk-2FWOGsGs7O3abGT26p-2FK1fENh-2FYjPUTkRm62-2BZESGHFXFhVxD4zFl5rMQkKicRWrC9HBrbsmgYVNXh9M0R8qYoJedevATv-2FsVPGZayyj3fDSy0pdgso46O2OO62UrH8P9Aw-2BTEpmaa5BuMng-2FGskMPfDRqSEVFzUP1huMA8-2Fe9PkxiiUfgG87OA-3D-3DE8nj_xAS4fg9a1FH0D-2Ff-2BXZtv2Kvv5pN8afcvU5qpcDptaKBD2rdbb7C9g9ulSh-2BSIa1gSKqRriGacY1ilnu7QiywI8722uvAtpeYzKtC2ChcofJ7KB69aMSWz5zLt1tEXn-2FKij8Rip-2F2pJn8WZ-2FjUsBlJILW6QoYpPLOw5l9YA-2B27IgoxU1PAQlgqb0JwcOkkW5gUkJ2pvvuT-2BF4eUxPbzlOVCHQfR0rZdy4uiARlwaEx4vj5B1I4HnU2x1-2BMr0SCfzParN8O4RZZM5MkX6mwUfc8LKLN1SxQMxgerq5Zh9rKoSX-2FBewK5jX9Vqtr-2FBwyLdV\">Het algoritme waarmee Duo onterecht onderscheid maakte tussen studenten blijkt nog sterker te discrimineren dan al bekend was <\/a>\u201d. Dit is niet alleen een onzinnige stelling, het is feitelijk gezien ook onjuist. Maar het is een aantrekkelijke stelling omdat het ons weerhoudt te kijken naar het menselijke proces van discriminatie.<\/p>\n<p><strong>Onzinnig <\/strong><\/p>\n<p>De letterlijke betekenis van het woord discriminatie is \u2018het maken van onderscheid\u2019. En dat is precies wat een algoritme doet. Het classificeert data op basis van verwantschap in kenmerken. En het doet dat veel beter en sneller dan dat mensen dat kunnen. Maar als je uitgaat van de letterlijke betekenis van het woord discriminatie, is de stelling dat het gebruik van voorspellende algoritmes \u201conbedoeld discrimineren\u201d, onzinnig. Je zou dan moeten stellen \u201cAlgoritmes discrimineren, daar zijn ze voor gemaakt\u201d.<\/p>\n<p><strong>Onjuist <\/strong><\/p>\n<p>In maatschappelijke context staat discriminatie voor iets heel anders. Daar gaat het over onrechtmatig onderscheid maken (op basis van zaken als nationaliteit, geslacht, religie, overtuiging, geaardheid etc.). En dat is nou precies wat een algoritme n\u00ecet doet. Een algoritme produceert bij dezelfde input steeds dezelfde output. Het is amoreel en kan dus per definitie geen onrechtmatig onderscheid maken. Populair gezegd; een algoritme is niet onderhevig aan een nacht weinig slaap of aan een vervelende ervaring met de benedenbuurman. Mensen zijn dat wel.<\/p>\n<p><strong>Makkelijk <\/strong><\/p>\n<p>Het is makkelijk om algoritmes af te wijzen om iets dat we er zelf instoppen. Maar de wijzende vinger moeten op onszelf gericht worden. Een algoritme wordt gemaakt door mensen en leert &#8211; in sommige gevallen &#8211; aan de hand van data. En daar ligt het probleem. Zowel mensen als data kunnen op veel manieren \u2018biased\u2019 zijn en discriminatie wordt ofwel ingeprogrammeerd door mensen, ofwel overgenomen uit onzuivere data.<\/p>\n<p>Met de stelling dat algoritmes onbedoeld discrimineren bewegen we weg van de pijn. De pijn dat wij z\u00e9lf nog steeds onderscheid maken op basis van huidskleur van anderen, hun etniciteit, geslacht, religie, overtuiging, geaardheid en op basis van nog veel meer.<\/p>\n<p>Het grote verschil tussen mensen en algoritmes is dat discriminatie in het menselijk proces erg moeilijk te ontdekken en te corrigeren is, zo leert ons de geschiedenis. Discriminatie in data daarentegen, blijkt relatief eenvoudig te ontdekken, en bovendien een heel stuk makkelijker te corrigeren te zijn. Uitgaande van de maatschappelijke betekenis van het woord discriminatie, is de stelling dat algoritmes kunnen bijdragen aan een samenleving waarin iedereen in gelijke gevallen, gelijk wordt behandeld, veel beter te verdedigen.<\/p>","protected":false},"excerpt":{"rendered":"<p>Peter de Kock, Pandora Intelligence Een expertquote van Peter de Kock, Pandora Intelligence Afgelopen week publiceerde Trouw een artikel met als ondertitel \u201c Het algoritme waarmee Duo onterecht onderscheid maakte tussen studenten blijkt nog sterker te discrimineren dan al bekend was \u201d. Dit is niet alleen een onzinnige stelling, het is feitelijk gezien ook onjuist. [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":108512,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[70],"tags":[],"ppma_author":[2583],"class_list":{"0":"post-108511","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-opinie"},"authors":[{"term_id":2583,"user_id":1,"is_guest":0,"slug":"mermar","display_name":"mermar","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/b97554d899a7ce8df2bc286c2f73beda56ebbc97d5d9ced74f7a04498e0fb0d3?s=96&d=mm&r=g","0":null,"1":"","2":"","3":"","4":"","5":"","6":"","7":"","8":""}],"_links":{"self":[{"href":"https:\/\/afromagazine.nl\/en\/wp-json\/wp\/v2\/posts\/108511","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/afromagazine.nl\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/afromagazine.nl\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/afromagazine.nl\/en\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/afromagazine.nl\/en\/wp-json\/wp\/v2\/comments?post=108511"}],"version-history":[{"count":0,"href":"https:\/\/afromagazine.nl\/en\/wp-json\/wp\/v2\/posts\/108511\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/afromagazine.nl\/en\/wp-json\/wp\/v2\/media\/108512"}],"wp:attachment":[{"href":"https:\/\/afromagazine.nl\/en\/wp-json\/wp\/v2\/media?parent=108511"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/afromagazine.nl\/en\/wp-json\/wp\/v2\/categories?post=108511"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/afromagazine.nl\/en\/wp-json\/wp\/v2\/tags?post=108511"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/afromagazine.nl\/en\/wp-json\/wp\/v2\/ppma_author?post=108511"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}