Verantwoord omgaan met AI

By: Stefan Buijsman (TU Delft) Stage 3 16:00 — 16:30

NL

Dutch session

Kunstmatige intelligentie neemt een grote vlucht, van ChatGPT tot AI om advertenties te optimaliseren of te voorspellen wat er de volgende dag verkocht gaat worden. Tegelijkertijd zien we de impact en ethische risico’s toenemen: kunstmatige intelligentie kan leiden tot discriminatie, profilering, niet transparante besluitvorming en een gebrek aan menselijke controle. Om AI op een verantwoorde manier in te zetten is het essentieel om ethiek in het ontwerp van zowel de techniek als de organisatie eromheen in te bedden. Maar hoe doe je dat, als je vaak niet meer aangeleverd krijgt dan een lijst met algemene waarden en principes waaraan je wil voldoen?

De grote uitdaging hier zit in het vertalen van ethische principes naar concrete stappen in het ontwerp en gebruik van AI. Die vertaalslag laat Stefan aan de hand van concrete casussen zien, zoals het inschatten van kredietwaardigheid van klanten op basis van hun browsergeschiedenis. Als we willen dat dat eerlijk verloopt, moeten we die eerlijkheid vertalen naar concrete maatstaven (zoals gelijke nauwkeurigheid voor verschillende groepen). Maar welke kies je dan? En hoe stevig willen we aan die maatstaven vasthouden, wetende dat optimaliseren voor gelijkheid ook nauwkeurigheid en dus winst kost? Lastige keuzes, die we altijd al hebben moeten maken, komen zo terug in de beslissingen die wij nemen rondom het ontwerp en de inzet van kunstmatige intelligentie.

Met goed onderbouwde antwoorden, en bijpassende algoritmes, kunnen we heel veel halen uit kunstmatige intelligentie. Daarvoor is het essentieel om te weten welke keuzes gemaakt moeten worden en hoe je dat integreert in het ontwikkelproces. Na deze bijdrage weet je genoeg om daar de eerste stappen in te zetten.

Want to be the first to receive updates?

Sign up for the newsletter