DOI: 10.5553/AP/259034892024006002002

Afwikkeling PersonenschadeAccess_open

Artikel

Slimme algoritmen, wijze keuzes: de dans tussen AI en ethiek

Trefwoorden AI, Ethiek, Risicobeoordeling, Diversiteit, Transparantie
Auteurs
DOI
Toon PDF Toon volledige grootte
Samenvatting Auteursinformatie Statistiek Citeerwijze
Dit artikel is keer geraadpleegd.
Dit artikel is 0 keer gedownload.
Aanbevolen citeerwijze bij dit artikel
P.J.E. Wolters, 'Slimme algoritmen, wijze keuzes: de dans tussen AI en ethiek', Afwikkeling Personenschade 2024-2-3, p. 34-39

    Met inzichten over AI, ethiek en algoritmen kunnen niet-technische medewerkers in rechtspraktijken zich onderscheiden. Aan de hand van praktijkcases, wetgeving en methodieken uit andere sectoren worden kansen en risico’s beschreven. Conclusie: menselijke en machinale ethiek is een zaak van afwegingen maken, respectievelijk laten berekenen. Ga met een multidisciplinair team aan de slag.

Dit artikel wordt geciteerd in

      De toekomst van onze jobs komt steeds vaker in handen van AI, artificiële intelligentie. De media berichten vooral over ChatGPT en andere ‘toeters en bellen’ van de Big Tech-ondernemingen voor massaal gebruik. Met inzichten over ethiek en algoritmen onderscheidt men zich als vooruitziende strateeg, verantwoorde beleidsmaker, kritische advocaat of creatieve productontwikkelaar. Samen aan tafel gaan zitten kan ook.
      Laat ik u geruststellen: u hoeft geen technische achtergrond te hebben. Maar het is wel handig om met kennis over ethiek mogelijke kansen, risico’s en verantwoordelijkheden beter in te schatten. Denk aan AI-initiatieven ontwikkelen of digitale diensten inkopen bij externe partijen. Het spreekt dan een stuk gemakkelijker als u het ‘aard van het AI-beestje’, met allerlei nukken en grillen, kent. Daar komt nogal wat digi-taal aan te pas.

    • 1. AI en algoritmen voor Dummies

      In jip-en-janneketaal zal ik eerst uitleggen wat AI is. Het is een systeem, meer precies een machine met de mogelijkheid om mensachtige vaardigheden te vertonen – zoals redeneren, leren, plannen en creativiteit. Het overkoepelende, slimme AI dat een bepaald doel voor ogen heeft, is afhankelijk van algoritmen, zeg maar een legertje soldaten. AI leert van algoritmen door er inzichten uit te halen. Algoritmen zijn in staat om complexe patronen in grote datasets te detecteren, er zelfstandig van te leren en uiteindelijk toe te werken naar een doel dat wij met AI willen bereiken. AI en algoritmen zijn twee handen op één buik: de slimme Jip en de snelle, geautomatiseerde, uitvoerende Janneke.

      Ter illustratie nemen we ChatGPT, een AI-dienst van de firma OpenAI. ChatGPT is een LLM, wat staat voor Large Language Model. Dit wordt gevoed door algoritmen. Eigenlijk voeren deze niet meer uit dan een zelf gecontroleerde rekensom, een statistische kansberekening, maar dan met taal. De algoritmen kennen als het ware gewichten toe aan stukjes woorden door continu keuzes te maken.

      Een gesimplificeerd voorbeeld: ‘Ik doe mijn rubberlaarzen aan omdat het buiten begint te …’. Iedereen voelt aan wat er op de stippellijn komt te staan, namelijk regenen. Ook een taalmodel ‘voelt’ aan door continue en snelle (kans)berekeningen te maken tussen miljoenen mogelijke opties en komt uiteindelijk tot hetzelfde resultaat: regenen. Een dergelijke banale, weerkundige zin is zo vaak uitgesproken, uitgeschreven en gedocumenteerd (op internet et cetera) dat het als handige databank kan dienen. En Data is King, zo luidt het gezegde. Doe er de rekenkracht van moderne chips bij en het algoritme van een taalmodel weegt mogelijke woordcombinaties en oordeelt. Eindresultaat: regenen.

      De wiskundige dr. Hannah Fry beschrijft in haar boek Algoritmes aan de macht vier verschillende functies van een algoritme. Laat ik het illustreren met eigen voorbeelden.

      • classificeren (voorbeeld: een patholoog classificeert verschillende soorten weefsels als gezond of ziek tijdens een diagnostische procedure);

      • prioriteren (voorbeeld: een rechtbank beslist welke zaken als urgent worden beschouwd en als eerste worden behandeld);

      • associëren (voorbeeld: een rekruteringsbureau koppelt werkzoekenden aan geschikte vacatures op basis van hun vaardigheden en ervaring);

      • filteren (voorbeeld: een verzekeringsmaatschappij filtert valse claims uit de ingediende schadeclaims om fraude te voorkomen).

      Het doel van een algoritme is dus altijd een keuze en daarom per definitie bevooroordeeld. De vergelijking met menselijke ethiek is de volgende. Ook mensen maken keuzes tussen goed en fout, meer en minder of eerlijk en oneerlijk. En het moet gezegd worden: ook mensen zitten per definitie vol vooroordelen.

    • 2. AI en besluitvorming: van data tot strategie

      Hoe moet AI worden ingezet in besluitvormingsprocessen en hoe verschilt dit van de huidige werkwijze? Men zou kunnen stellen dat een besluit al is genomen (binnen enkele seconden) nadat AI is toegepast op een doelgroep.

      Natuurlijk moeten organisaties eerst wat voorbereidend werk doen. Er zijn vier activiteiten die moeten worden uitgevoerd bij het toepassen van AI: het organiseren van data, het testen en valideren van data, het bepalen van hoe algoritmen moeten functioneren op basis van geprogrammeerde regels en parameters, en tot slot het faciliteren van veranderingen in het huidige werkveld binnen de organisatie.
      Het bestuur van een onderneming moet vooral bij de eerste activiteit goed begrijpen welke soort data nodig is om AI-systemen op een passende wijze in de organisatie te integreren. Hiervoor moet een groot deel van de data organisatie- of domeinspecifiek zijn.
      Laten we ter illustratie een bank nemen die witwassen van geld wil tegengaan. Voorheen werden er allerlei interne afdelingen en externe experts ingeschakeld om uiteindelijk software, IT-systemen en bijbehorende processen op te zetten om data met betrekking tot (domein­specifieke) witwaspraktijken te identificeren. Als het IT-systeem fouten vertoonde of moest worden aangepast aan nieuwe wetgeving, werd het gewoon geüpdatet. Alle belanghebbenden werden op de hoogte gebracht. Alles was min of meer transparant.

      Maar bij AI is dat anders. Als de AI-‘geest’ met alle goede bedoelingen en instructies eenmaal uit de fles is gelaten (bijvoorbeeld met de instructie om klanten of slachtoffers beter te assisteren), kan diezelfde ‘geest’ in geval van onverwachte problemen niet zomaar terug in de fles worden gestopt.
      Daarom moet in het geval van AI ter bestrijding van het witwassen van geld bij een bank eerst een beslisboom worden opgesteld. Dit moet niet alleen met financiële en juridische experts gebeuren, maar ook met experts op het gebied van ethische richtlijnen en vele anderen die alle mogelijke impact op de bank, klanten en de omgeving kunnen voorzien. Al deze kennis moet worden ‘vertaald’ in instructies voor algoritmen, zodat deze geautomatiseerd het werk kunnen doen door middel van (kans)berekeningen.

    • 3. Spieken bij andere sectoren

      De personenschadebranche kan zich laten inspireren door publieke en private spelers die rekenalgoritmen voor diensten inzetten. Neem als voorbeeld gemeenten. Vanwege personeelstekorten worden algoritmen steeds vaker ingezet. Ethiek en kansengelijkheid voor burgers spelen hier een belangrijke rol. Men wil een eerlijke en uniformere onderbouwing van besluiten. Gemeente­besturen willen ook hun dienstverlening vereenvoudigen of vriendelijker maken. Of een gemeenteafdeling wil AI inzetten voor een schonere stad en daarmee tegelijkertijd geld besparen.
      Met AI worden beslissingen ten behoeve van burgers genomen. Hoe gaat dat in zijn werk? Natuurlijk hebben experts eerst degelijk voorbereidend werk uitgevoerd, zoals eerder beschreven. Vervolgens wordt in seconden historische en actuele data gebruikt en (reken)algoritmen ingezet om burgers en culturele gemeenschappen in de samenleving beter en gerichter te onderzoeken, te benaderen of te vertegenwoordigen. Verschillen tussen burgers worden eerlijker vertaald in gerichtere beleidsmaatregelen. Gemeenten willen daarmee de mensen in hun gemeenschap centraal stellen, niet de technologie zelf.

      Neem een andere sector, zoals de wegenbouw, die de verkeersveiligheid wil vergroten met AI. Denkt u dat ethiek bij wegenbouwers geen rol speelt? Lees deze vacaturetekst (december 2023) van Royal HaskoningDHV, een ingenieursadviesbureau. Een fragment vertaald uit het Engels: (…) Vacature ‘Hoe Gerechtigheid in AI voor wegveiligheid inbouwen’ – Dit is een promovendus vacature in toegepaste ethiek (…) om relaties te onderzoeken met morele kwesties zoals discriminatie, inclusiviteit (…) voor toepassingen zoals slimme verkeerslichten, risicobeoordelingskaders (…).

      Praktijkcase: ziekenhuis

      Neem als voorbeeld een ziekenhuis dat wil gaan onderzoeken hoe AI kan worden ingezet om de communicatie met patiënten over hun ziekte te automatiseren en tegelijkertijd persoonlijker te maken. De motivatie hiervoor is dat het een oplossing biedt in een krappe arbeidsmarkt. Tevens komt het de ranking en reputatie van het ziekenhuis ten goede met meer tevreden patiënten.

      De ethische afwegingen in een dergelijk AI-project zijn de volgende. Dient het ziekenhuis meer gewicht aan bepaalde categorieën data te hechten voor (de berekening van) gelijke kansen voor alle patiënten, alle doelgroepen, door het opslaan en gebruiken van veel gegevens? Dit brengt echter het risico met zich mee van het lekken van privacygevoelige informatie. Of wil men minder data opslaan en delen met allerlei afdelingen, maar met AI wel accurater en gerichter uitleg laten geven per individu? In dit voorbeeld zien we op de eerste plaats een ethische overweging tussen gelijke kansen, oftewel eerlijkheid versus privacy. Daarnaast bestaat er ook nog de ethische afweging tussen gelijke kansen voor iedereen versus wantrouwen jegens sommigen. Fraudeurs zouden namelijk met behulp van dezelfde inzichten aandacht kunnen claimen voor mogelijk gerelateerde ziektes. Dat brengt het risico op onvoorziene hogere kosten met zich mee. Dit zijn allemaal ethische afwegingen die gemaakt moeten worden.

      Praktijkcase: politie

      Laten we een andere, complexere vorm van AI in actie bekijken en de manier hoe men verantwoord met ethische risico’s omgaat. Neem de politie. Afleiding in het verkeer is een van de belangrijkste oorzaken van verkeersongevallen. De zogenaamde MONO-cam van de politie identificeert bestuurders die een apparaat in de hand hebben, wat gevaarlijk kan zijn. Volgens de wet hoeft niet te worden bewezen of iemand daadwerkelijk aan het bellen, appen of iets anders aan het doen is. Deep Learning, een vorm van geautomatiseerd machinaal leren, wordt hier gecombineerd met een politie­camera om videobeelden vast te leggen. Deep Learning is een algoritme dat wordt toegepast voor complexe taken, zoals het snel identificeren van een bestuurder in een rijdend voertuig.

      Er zijn in deze politiecase twee ethische componenten. De eerste is de keuze van de politieleiding om de gebruikte (foto)data tijdens het testen van het AI-model goed te controleren op mogelijke bias of vooroordelen. Een dergelijk AI-systeem wordt tijdens een proefperiode getraind door politieagenten. Vele duizenden foto’s worden geclassificeerd voor het AI-model. Want men wil het risico uitsluiten dat een betrapt autobestuurder zou kunnen beweren: ‘maar ik hield een pakje sigaretten tegen mijn oor’ om te ontkennen dat hij aan het bellen was. Het tweede element is het resultaat: ethisch verantwoorde foto’s van de doelgroep waarvoor het algoritme is bedoeld.

      Om ontwijkende reacties van bestuurders vanuit technisch, maar later ook vanuit juridisch oogpunt te weerleggen, heeft de politie criteria opgesteld voor het gebruik van AI. Bijvoorbeeld, ten eerste, kunnen de politie­camera’s vrij door de voorruit kijken zonder reflectie? Ten tweede: betreft het een elektronisch apparaat dat geschikt is voor communicatie? Ten derde: wordt het vastgehouden met een hand met vingers eromheen? In het geval van de protesterende bestuurder die beweert een pakje sigaretten vast te houden, kan de politie dus verantwoord roepen: computer says no!

      Als u gewoon veilig op de weg rijdt, zonder stiekem te bellen, dan wilt u natuurlijk niet in een database van de politie worden opgenomen. Wederom speelt ethiek een rol. De kinderopvangtoeslagenaffaire bij de Belastingdienst is een treffend voorbeeld van hoe het mis kan gaan. Irrelevante persoonsgegevens in een database kunnen tot discriminatie leiden en onnodig lijden bij slachtoffers. Zo ook in deze politiepraktijkcase. Neem als voorbeeld een foto van een bestuurder van een luxe auto in combinatie met specifieke kledingstukken, zoals een diepe pet die op een overvaller zou kunnen wijzen. Echter, het identificeren van overvallers is niet het primaire doel van het AI-model. Dus worden dit soort irrelevante foto’s vanuit ethisch en juridisch oogpunt verwijderd.

      Praktijkcase: gemeenten

      Hoe kunnen algoritmen gemeentelijke instanties helpen om te bepalen of een burger recht op een uitkering heeft? Aanvragen dienen grondig te worden onderzocht om mogelijke onrechtmatigheden op te sporen. Uiteindelijk wil men voorkomen dat burgers onterecht bijstand ontvangen, schulden opbouwen en in moeilijk­heden komen. Zelfs burgers die rechtmatig aanspraak maken op bijstand, kunnen soms worden onderzocht door gemeenteambtenaren. Dit wil men minimaliseren omdat zo’n onderzoek belastend kan zijn voor de burger. Ook neemt het veel tijd van handhavende ambtenaren in beslag.

      In 2023 voerde een gemeente een pilotproject uit met een algoritme dat een slimme controle uitvoerde om een bijstandsaanvraag als onderzoekwaardig of niet-onderzoekwaardig te classificeren. Vervolgens werd dit gecontroleerd door een medewerker van de afdeling Handhaving. Het algoritme kan verbanden en patronen identificeren in een grote hoeveelheid informatie over bijstandsaanvragen. Het kan bepalen welke informatie vaker voorkomt bij aanvragen die nader onderzoek vereisen en welke niet. Het algoritme is getraind op historische gegevens en bestaat uit vijftien datapunten. De beoogde voordelen van deze aanpak:

      • Met algoritmen kan men beter inschatten welke aanvragen onderzoekwaardig zijn. Hierdoor kunnen budgettaire en andere middelen beter worden benut en worden er minder onrechtmatige uitkeringen verstrekt.

      • Er worden minder aanvragen onnodig extra onderzocht omdat het AI-model beter kan inschatten welke aanvragen extra controle vereisen. Ook worden onrechtmatige uitkeringen vaker voorkomen, wat leidt tot een meer anticipatieve aanpak in plaats van een reactieve benadering.

      • De vooringenomenheid (‘bias’) van het algoritme is grondig onderzocht. Hieruit blijkt dat het ontwikkelde model vrijwel alle gevoelige kenmerken (zoals leeftijd, geboorteland en nationaliteit) gelijkwaardiger behandelt dan voorheen.

      Let wel: iedere medaille heeft twee kanten, zo ook algoritmen. Deze maken rekenkundige afwegingen die (ook) verantwoord moeten worden afgewogen. Niet alleen vanwege ethische, maar ook vanwege mogelijke juridische implicaties. De staatssecretaris van Koninkrijksrelaties en Digitalisering heeft zich daarom kritisch uitgesproken over gemeenten die algoritmen inzetten. Later daarover meer.

    • 4. Verantwoorde risico’s: het beleid

      Internationale wet- en regelgeving betreffende gegevensbescherming moet worden opgenomen in een risico­analyse. In de nieuwe Europese AI-Act1x https://commission.europa.eu/publications/artificial-intelligence-european-commission-aiec-communication_en. staat het begrip risico centraal met betrekking tot de classificatie van AI-systemen. Deze AI-Act streeft ernaar om een uniform wettelijk kader in de EU te creëren en om de ontwikkeling en het gebruik van AI-systemen te reguleren. De systemen worden opgedeeld in risicoklassen: hoe hoger het risico, des te strenger de vereisten. De verordening stelt hoge boetes in het vooruitzicht voor overtreders. Organisaties moeten zelf bepalen of hun AI-systemen binnen de reikwijdte van de AI-Act vallen.

      • Risiconiveau 1: onaanvaardbaar risico. Dit zijn AI-systemen die als een bedreiging voor mensen worden beschouwd en die zullen worden verboden. Deze omvatten onder andere sociaal scoring: mensen classificeren op basis van sociaaleconomische status, persoonlijke en biometrische kenmerken.

      • Risiconiveau 2: hoog risico. Het betreft AI-systemen die een negatief effect hebben op de veiligheid of de grondrechten. Producten die hieronder vallen zijn onder andere auto’s en medische apparatuur. Denk ook aan systemen gerelateerd aan werkgelegenheid, toegang tot particuliere diensten en overheidsdiensten en -uitkeringen, bijstand bij juridische interpretatie en toepassing van de wet. Alle AI-systemen met een hoog risico zullen worden beoordeeld voordat ze op de markt worden gebracht en tijdens hun hele levenscyclus.

      • Risiconiveau 3: beperkt risico. Deze AI-systemen moeten voldoen aan minimale transparantie-eisen, zodat gebruikers weloverwogen beslissingen kunnen nemen. Gebruikers moeten bewust worden wanneer ze met AI te maken hebben. Dit geldt bijvoorbeeld voor AI-systemen die beeld-, audio- of video-inhoud genereren of manipuleren.

      De Europarlementariër die de AI-act heeft ingediend, Kim van Sparrentak,2x https://inter-focus.nl/2023/11/30/ai-en-mensenwerk-kansen-en-risicos. was spreker bij het AI-evenement van Inter-Focus. Meer informatie over haar presentatie kan worden opgevraagd bij de medeorganisator, tevens auteur van dit artikel.

      Op nationaal niveau heeft het ministerie van Binnenlandse Zaken en Koninkrijksrelaties in 2023 het Implementatiekader ‘Verantwoorde inzet van algoritmen’3x www.rijksoverheid.nl/documenten/kamerstukken/2023/07/10/kamerbrief-over-algoritmen-reguleren. gelanceerd. Dit implementatiekader heeft tot doel overheden te ondersteunen bij de verantwoorde inzet van algoritmen. Het gaat om het verantwoord inzetten van algoritmen op een wettige, ethische en robuuste manier. Deze drie componenten zijn uitgewerkt in een aantal thema’s, in lijn met publieke waarden en grondrechten zoals menselijke controle, rechtvaardigheid en non-discriminatie en diversiteit en participatie van belanghebbenden.
      De (voormalig) staatssecretaris van Koninkrijksrelaties en Digitalisering, Alexandra van Huffelen, heeft zich in 20234x www.rijksoverheid.nl/actueel/agenda/2023/11/27/agenda-staatssecretaris-van-huffelen-week-48. uitgesproken over het verantwoord gebruik van algoritmes ter voorkoming van onrechtvaardige behandelingen van bijstandsgerechtigden. Bij onderzoeken naar het recht op bijstand kunnen gemeenten namelijk algoritmische profilering toepassen. Echter, onder andere postcode, gezinsgrootte en laaggeletterdheid mogen niet langer gebruikt worden voor profilering in de context van sociale voorzieningen. Bovendien worden sommige zelflerende algoritmes als te complex ervaren om nog begrijpelijk te zijn voor burgers. Heronderzoek onder bijstandsgerechtigden moet meer op dienstverlening en minder op wantrouwen zijn gebaseerd. Het advies is gericht aan alle 340 Nederlandse gemeenten.

    • 5. Algoprudentie

      Ook kennisplatforms doen een duit in het zakje op het gebied van verantwoord risico’s nemen. Het advies aan de eerdergenoemde 340 gemeenten omvat het nieuwe begrip ‘algoprudentie’.5x Kennis omtrent algoprudentie wordt ondersteund door de European AI&Society Fund, het SIDN fonds, de Stichting Algorithm Audit en het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties. Dat zijn case-afhankelijke adviezen voor ethische algoritmes. Zij bieden richtlijnen op ethisch vlak, maar zijn niet bindend. Ethisch advies gaat vaak verder dan alleen het volgen van de wet. Wanneer er geen duidelijke wetgeving of normen van toezichthouders zijn, kan ethisch advies organisaties helpen als een kompas. Algoprudentie kan bijdragen aan de ondersteuning van toekomstige beslissingen van juridische instanties.

    • 6. Domeinexperts

      Domeinexperts kunnen ook een effectieve, complementerende praktijkrol spelen. Domeinexperts spelen een essentiële rol in de ontwikkeling van AI-projecten binnen bedrijven, waarbij ze hun diepgaande kennis en ervaring binnen specifieke vakgebieden benutten. Als vertrouwde bronnen beschikken ze over een grondig begrip van de complexiteiten en uitdagingen die inherent zijn aan sectoren zoals financiën, gezondheidszorg en retail. Door nauw samen te werken met AI-teams vertalen ze de behoeften van het bedrijf naar concrete doelstellingen en vormen ze de brug tussen technologie en bedrijfsstrategie. Hun rol omvat ook het valideren van AI-modellen, waarbij ze de effectiviteit en relevantie beoordelen van voorspellingen en aanbevelingen die worden gegenereerd. Bovendien spelen ze een cruciale rol bij het interpreteren van de resultaten van AI-analyses, waarbij ze deze contextualiseren binnen de bredere bedrijfs- en sectorgerelateerde context. Door hun bijdrage zorgen domeinexperts ervoor dat AI-oplossingen niet alleen technisch geavanceerd zijn, maar ook naadloos aansluiten op de behoeften en uitdagingen van specifieke industrieën, waardoor ze waardevolle inzichten genereren en bedrijfsbeslissingen informeren.
      Een praktisch hulpmiddel zou een training kunnen zijn. Bijvoorbeeld in sectoren, instellingen of ondernemingen die in aanraking komen met veel niet-westerse culturen, zou men IT programmeurs, data onderzoekers en hun opdrachtgevers een diversiteits- of interculturele cursus kunnen laten volgen. Ook de mens zit vol vooroordelen. Die willen we niet vertalen naar machinale algoritmes.

    • 7. Wie controleert?

      De Directie Coördinatie Algoritmes (DCA) van de Autoriteit Persoonsgegevens fungeert als externe algoritmetoezichthouder in Nederland. Ook de Auditdienst Rijk (ADR) rapporteert over algoritmegebruik bij de overheid.
      De private sector zal vragende partij zijn naar neutrale, externe auditors die organisaties assisteren op het verantwoord ontwikkelen van algoritmen. Deze onderzoeken de doelmatigheid, doeltreffendheid en rechtmatigheid van beleid, dus ook met betrekking tot ethisch gebruik van AI en algoritmen. Ze onderzoeken wat er gebeurt en wat dat kost en oplevert. En: hoe dat beter kan.
      Concrete aanbevelingen voor gemeenten kunnen zijn dat men opener moet communiceren over het gebruik van algoritmen. Aanbeveling voor een HR-afdeling zou kunnen zijn dat men de bias in algoritmen moet verbeteren. Of neem de rechtspraak die wordt geadviseerd hun (be)grip op algoritmen te vergroten, met inachtneming van nieuwe kennis. Denk hierbij aan het volgen van internationale ontwikkelingen (Europese AI-act), het lezen van juridische literatuur over technologisch onderzoek of het opzetten van digitale expertgroepen en commissies.
      Verder zal de behoefte naar internationale normen en standaarden toenemen die AI-uitdagingen oppakken. Denk aan normeringen die rekening houden met de waarde van gegevens, risico’s en beperkingen bij de manier waarop gegevens worden verzameld, opgeslagen, gedistribueerd, verwijderd, gerapporteerd en gebruikt in de besluitvorming en procedures van de organisatie. Maar denk ook aan standaardnormeringen voor het definiëren van belanghebbenden die betrokken zijn bij de ontwikkeling en het gebruik van een AI-systeem. Voor verdere inzichten en advies omtrent controlerende en standaardiserende instanties kunt u contact opnemen met de auteur van dit artikel.

    • 8. De gebruiker centraal

      Bij de ontwikkeling van algoritmen voor AI-systemen is een belangrijke belanghebbende de gebruiker. Ga zo veel mogelijk in de schoenen van deze gebruiker staan. Dit kan een cliënt, consument of burger zijn. Maar het kan ook een interne medewerker zijn die operationele taken gaat uitvoeren met een AI-assistent. Het betrekken van gebruikers zal helpen met het creëren van een cultuur waar medewerkers zich eigenaar voelen van ‘hun’ AI-systeem.
      Het belang van het betrekken van gebruikers werd besproken tijdens een AI-evenement van Inter-Focus. Deelnemers uit de letselschadebranche werden enige testvragen voorgelegd. De eerste vraag: ‘Wilt u dat AI wordt ingezet bij het samenvatten van een letselschadeverslag voor een advocaat? De meesten antwoordden positief. De tweede vraag: ‘Zou u als cliënt een verslag willen ontvangen opgemaakt door AI? Wederom antwoordde de meesten positief. Bij de derde vraag: ‘Zou u als cliënt de letselschadevergoeding door AI laten bepalen?’ twijfelden de meeste deelnemers. De cliënt vraagt zich namelijk af of deze wel goed vertegenwoordigd wordt. Als er een fout door een mens wordt gemaakt, dan kan men deze identificeren en corrigeren. Het proces is redelijk transparant en dus te vertrouwen. Echter, fouten die eenmaal in AI geslopen zijn, blijven vaak in een ondoorzichtige ‘black box’. Houd dus rekening met verschillende perspectieven van gebruikers.

    • 9. Aan de slag!

      Hoe nu verder met AI en ethiek? Organiseer een brainstormsessie met ontwikkelaars, maar ook met niet-technische medewerkers over nut en noodzaak van AI. Nodig een multidisciplinaire spreker uit om uw team te enthousiasmeren in jip-en-janneketaal. Kijk naar praktijkcases uit andere sectoren. Hoe zetten zij welke soort algoritmen in voor wat soort uitdagingen? Durf de advocaat van de duivel te spelen, bespreek naast kansen ook risico’s. Uiteindelijk draait het bij ethisch verantwoorde AI om transparantie en het opbouwen van vertrouwen voor gebruikers in de praktijk.
      De informatie in dit artikel is bedoeld voor algemene informatiedoeleinden. Het betreft geen juridisch advies.

    Noten

Dit artikel bevat kennis opgedaan onder andere in twee cursussen aan de TU Delft (Ethics in AI Design; AI in Practice: Applying AI) met kennis van meerdere universiteiten, professoren en praktijkcases uit het bedrijfsleven. Licentie https://creativecommons.org/licenses/by-nc-sa/4.0.

Print dit artikel