maandag 27 november 2017

Algoritmen 2

Zoals gezegd, de wereld is vol algoritmen. Veel van die algoritmen maken ons leven gemakkelijker; daardoor vergeten we ook wel eens wat er eigenlijk gebeurt. Als u uw betaalkaart in een gleuf bij de kassière in de winkel schuift en uw pincode intoetst is er een algoritme dat controleert of pincode en rekening wel bij elkaar horen, of uw saldo wel voldoende is om de betaling te doen, etc.
Een voorbeeld van zo'n algoritme gaf Jelle Brandt Corstius in Robo Sapiens. Bij de jacht op stropers van groot wild (olifanten, neushoorns) in Kenia worden politiepatrouilles ingezet. Het blijkt dat menselijke patrouilles de neiging hebben routinematig steeds dezelfde wegen te volgen. Stropers maken daar gebruik van door met hun activiteiten buiten deze paden te blijven. Door alle bekende gegevens van de plaatsen waar het wild zich ophoudt en waar stropers zijn gesignaleerd was men in staat voor de politiepatrouilles willekeurige routes uit te zetten, waar stropers niet meer op kunnen anticiperen.   
Je kunt algoritmen natuurlijk ook gebruiken om een voorselectie te doen uit sollicitanten. Uit gegevens uit de VS blijkt dat inmiddels zo'n 70% van de sollicitatiebrieven niet door een mens worden gezien. Algoritmen bepalen in de meeste gevallen of een sollicitant al dan niet geschikt kan worden geacht.
Waarop berust dat oordeel?
Net als in Nederland moet in de meeste gevallen een antecedenten onderzoek worden gedaan. In Nederland leidt dat tot een verklaring omtrent het gedrag. Voor veel functies is zo'n verklaring een vereiste. En als een kandidaat in het verleden vaak in aanraking is gekomen met politie of justitie kan dat leiden tot een aantekening bij de verklaring omtrent het gedrag. Dat is bij de beoordeling van het c.v. een punt waar rekening mee wordt gehouden.
Men hoeft geen profeet te zijn om te kunnen voorspellen dat iemand uit de 'sociaal zwakke' buurten  vaker met de politie en justitie in aanraking komt dan iemand uit de buurt waar welgestelden in duurdere woningen wonen. Een dergelijk gegeven kan natuurlijk rechtstreeks in het algoritme zijn vastgelegd. Maar veelal gaat het subtieler.
De algoritmen maken gebruik van grote hoeveelheden sollicitatiebrieven en onderkennen daarin patronen die door personeelsafdelingen zijn gehanteerd. Daaruit kan blijken dat kandidaten met een aantekening in hun Verklaring omtrent het gedrag door personeelsfunctionarissen vaker niet worden aangenomen dan anderen. Het algoritme 'leert' van die patronen en zal daaruit de criteria afleiden die kunnen worden gehanteerd bij zijn selectie van kandidaten.
Als we daar even over nadenken dan is duidelijk dat als kandidaten op basis van het aantal keren dat ze met politie en justitie in aanraking zijn gekomen worden afgewezen voor een functie - zelfs als de personeelsfunctionarissen zich daarvan nauwelijks bewust zijn -  het algoritme de neiging heeft deze opvatting te versterken.
In het algemeen blijkt dat dit een eigenschap is van algoritmen waarin kwalitatieve criteria gebruikt worden om mensen en instituties te beoordelen. Zie bijvoorbeeld het rangschikken van scholen op basis van de kwaliteit van het onderwijs. Want wat is de kwaliteit van het onderwijs en hoe bepaal je die? Moet je daar de hele schoolloopbaan van de leerlingen bij betrekken? Of de achtergrond van de leerlingen? Heeft het schoolbeleid hierop invloed? Is de 'naam' van de school een factor? Als blijkt dat de kinderen van welgestelde ouders betere resultaten behalen dan die van minder welgestelde ouders, ligt dat dan aan de kwaliteit van het onderwijs?
Het zijn vragen waar ook de algoritmen geen antwoord op hebben. Zij beperken zich veelal tot de gegevens die kwantificeerbaar zijn. Bijv. het aantal leerlingen dat geslaagd is voor het examen.
Wellicht het grootste probleem met dergelijke algoritmen is dat alleen zeer gespecialiseerde mensen in staat zijn de werking ervan te kunnen volgen. Daardoor verdwijnen veel selecties uit het zicht van de publieke opinie.
 



  

Geen opmerkingen:

Een reactie posten