Een AI als luis in de pels, in plaats van als verkondiger van onafzienbare datastromen. Dat is wat Pim Haselager voor ogen staat. De hoogleraar Artificiële Intelligentie bedacht een ‘reflection machine’, die nu in enkele onderzoeken wordt uitgewerkt. ‘AI kan krachtig zijn als hulpstuk om beslissingen te nemen, maar als we niet uitkijken versterkt het onze tunnelvisie of ondermijnt het onze verantwoordelijkheid.’ Artsen, advocaten, rechercheurs, notarissen of belastinginners: AI is in toenemende mate een hulpstuk bij hun beslissingen. Neem een arts die op basis van zijn ‘decision support system’ hulp zoekt bij diagnosestelling en behandelplan. Idealiter is de computer de ‘second opinion’, maar voor je het weet neemt-ie het voortouw. Haselager: ‘Het is uiteindelijk de arts die de beslissingen neemt, maar door tijdsdruk wordt het systeem het richtsnoer. Het kan de tunnelvisie versterken, tot foute beslissingen leiden. We leunen gemakkelijk op AI omdat we soms cognitief luie wezens zijn, soms ook omdat het niet zo eenvoudig is om tegen AI in te gaan.’ Is dit erg: regent het verkeerde beslissingen vanwege de nu geldende inzet van de decicion support systems? Ja, het kan erg zijn, zegt Haselager op basis van eerder onderzoek. Hierin werd opzettelijk in een AI-hulpmiddel vertekende informatie toegevoegd, die in de beslissingen een niet ter zake doende scheiding aanbracht tussen bevolkingsgroepen. Groep A was steeds de sjaak, maar geen gebruiker die het doorhad. ‘We noemen deze systemen zelflerend, er is een groot vertrouwen in, maar niemand weet eigenlijk precies hoe zo’n systeem werkt. Je weet als arts of rechercheur eigenlijk niet precies hoe het systeem doet wat het doet, je kunt de redenen waarom het systeem beslissingen aanreikt niet goed overzien. En dus soms ook niet dat het leidt tot stelselmatige vertekeningen in je besluiten.’ Reflectiemachine Wie de gebruikers van al die systemen oproept te blijven nadenken, kan twee dingen doen. Eén: in de werkomgeving meer feedback inbouwen, meer intercollegiaal overleg, meer ruimte voor de luis in de pels in de teambespreking. ‘Fijn, en dat gebeurt ook wel, maar dat kost veel menskracht’, zegt Haselager, die daarom een lans breekt voor plan B: de ‘technologische fix’. ‘Ik krijg wel het verwijt dat mijn idee alleen technologisch bijdraagt, maar ja, ik bén immers van de AI, en een complementaire AI, die niet mensen vervangt maar aanvult en uitnodigt tot menselijk nadenken, kan goed helpen.’ Die aanvullende vorm van AI is de door Haselager uitgedachte ‘reflection machine’, noem het een Socratisch gesprek met je computer. Cruciaal in de feedback zijn de precieze vragen die de AI de gebruiker stelt, hoe de AI de vragen formuleert én de momenten waarop. ‘Daar komt heel veel psychologie bij kijken. Daarom is het zo goed dat onze AI zit ingebed in de sociale faculteit, aan andere universiteiten elders is AI ingebed binnen een bèta-omgeving.’ Een goede ‘reflectiemachine’ zal door de gebruikers ervaren worden als een ‘tegendenkend maatje’, ‘een vriend die je in een goed gesprek tot nadenken stemt’. Of het systeem werkt en inderdaad tot betere beslissingen leidt, en door de gebruikers wordt geaccepteerd, is nu onderwerp van onderzoek. ‘Heel spannend’, noemt Haselager het welslagen van ‘zijn’ machine. Het idee neemt nog in betekenis toe omdat het een bijdrage kan leveren aan het nu heersende debat over verantwoordelijkheden. Je kunt immers die schuld van een foute beslissing, ‘genomen’ door een computer, maar heel lastig op de computer afschuiven, of op de bedenkers van de software. ‘Het is de mens die uiteindelijk toch de verantwoordelijkheid draagt, en de reflectiemachine maakt ons daarvan beter bewust.’ Bron foto: Drew Dizzy Graham via Unsplash