Waarom willen klanten steeds vaker weten hoe algoritmen tot een uitkomst komen? Wat zijn de gevolgen van machine learning en ai voor de relatie tussen ict-leverancier en klant? Wie is er verantwoordelijkheid voor ai? Zit ethiek standaard in ai en machine learning?
In een artikel verschenen op Computable wordt IBM Watson-strateeg Marc Teerlink aan het wordt gelaten. Hij stapte eind 2017 over naar SAP en zwaait daar nu het ai-scepter. Zijn rol van chief business strategist bij IBM’s Watson-groep veranderde in die van global vice president SAP Leonardo. Op die plek is hij verantwoordelijk voor de inzet van ai en machine learning bij klanten van SAP. Computable sprak Teerlink tijdens Connect to Innovate, het gecombineerde leveranciers- en eindgebruikers event van SAP en VNSG in Nieuwegein. Teerlink sprak over een nieuwe externe ethische raad die toeziet op de ai-ontwikkelingen binnen SAP.
Was er bij IBM ook veel aandacht voor de ethiek rondom de inzet van ai-toepassingen?
‘Grote partijen in de industrie- bij IBM en SAP weet ik dat uit eigen ervaring- vonden altijd al dat machine learning en ai het principe van transparantie in zich moeten hebben. De vraag hoe het systeem tot een antwoord komt is cruciaal. Ik vergelijk dat met het middelbaar onderwijs waarin het geven van het juiste antwoord ook niet meer voldoende is, maar steeds vaker aan leerlingen wordt gevraagd hoe ze tot dat antwoord zijn gekomen.
Het lastige is dat je dat principe in de systemen kan inbakken, maar het waren in de periode 2014-2016 toch vooral technische scripts nodig om te achterhalen hoe het systeem tot zijn uitkomst kwam. Je had techneuten nodig die dat met technische interactie-scripts boven water haalden. Vanaf 2016 en 2017 zie je dat partijen als de machine learning-groep van SAP, IBM Watson, maar ook startups meer bezig zijn om te visualiseren hoe de machine tot een antwoord komt.
De uitdaging is om dat tot een product te maken. Bedrijven die ai-oplossingen maken redeneerden aanvankelijk: klanten betalen er niet voor en er is nog geen vraag in de markt. Het was dus wachten op het moment dat zowel de tooling en de evangelisatie er waren om meer aandacht te vestigen op die transparantie.’
Welke klanten vragen het vaakst hoe ai tot een conclusie is gekomen?
‘Bij SAP zien we dat zeker bij klanten die actief zijn aan de exacte kant. Bijvoorbeeld bij belastingberekeningen en financiële boekhouding. Partijen binnen die belasting- en accountancy-wereld moeten ook uitleggen hoe hun systemen tot bepaalde conclusies komen.
Een voorbeeld: vijf tot zes jaar geleden namen auditeurs een sample van de data, ongeveer tien procent, en voerden daarop hun controle uit. Door strengere regelgeving moeten zij nu alle data volledig doorspitten. Daarbij is het steeds belangrijker om te weten hoe ze tot een bepaalde conclusie zijn gekomen. Bijvoorbeeld hoe ze tot een bepaalde transferprijs zijn gekomen. Hoe is de kostenverdeling per product per land tot stand gekomen? Die beslissingen hebben namelijk vergaande implicaties en het leidt tot nieuwe discussie waarbij ook de auditor wordt betrokken.
Daarnaast is door zowel de positieve als negatieve verhalen over ai een maatschappelijke discussie over het onderwerp gaande. Naast de voordelen die ai kan hebben is daarbij veel aandacht voor angstscenario’s over algoritmen. Bovendien is iedereen zich er meer van bewust van de enorme hoeveelheden data die worden verwerkt en wat de gevolgen zijn als daar manipulatie plaatsvindt hoe zich dat dan kan verspreiden, zoals bij de verkiezingen in de VS.
Dus zowel zakelijk als maatschappelijk is er veel veranderd. SAP heeft die tijd gebruikt om het hebben van technische tooling te verplaatsen naar een organisatie die de aandacht voor transparantie, visualisatie van ai en ethiek binnen de hele organisatie heeft opgenomen. Bijvoorbeeld in hoe design-thinking wordt toegepast, maar ook binnen de manier waarop ai-toepassingen worden verkocht en hoe onze mensen dat verwezen in hun dagelijks functioneren. Dus niet alleen in de technologie, maar ook in de methodologie en communicatie naar klanten.’
Waar ligt in de meeste organisaties nu de ethische verantwoordelijkheid voor de inzet van ai?
‘Dat hangt af van de focus van het bedrijf. Hoe meer van wat een bedrijf doet ongewenste gevolgen kan hebben. Hoe meer die ethiek automatisch al bij senior management terecht komt.
Is er minder sprake van die gevolgen dan komt de verantwoordelijkheid vaak bij juridische afdelingen terecht. Veel organisaties zijn nog steeds lijstjes aan het afvinken en hebben die verantwoordelijkheid nog steeds zoals tien jaar geleden gebruikelijk was georganiseerd. Bedrijven die vooropgaan in ai en ethiek hebben een raad die de bedrijfsleiding adviseert en met ze in gesprek gaat over bijvoorbeeld de gevolgen van bepaalde dataverwerking en ai voor privacy.’
Bron: Computable.nl