Hoe kunnen ontwerpers verantwoord omgaan met de opkomst van kunstmatige intelligentie (Artificial Intelligence, AI)?
Waarom moeten we zowel mét als óver systemen kunnen onderhandelen?
Het waren veelbesproken
thema’s
tijdens de
CHI-conferentie
in Hamburg die ik afgelopen week bezocht.
|
De CHI is een van de grootste en meest toonaangevende bijeenkomsten over
Human Computer Interaction.
Naar schatting 4000 bezoekers konden kiezen uit honderden presentaties, veelal van technische universiteiten en design-opleidingen. Onderwerpen varieerden van ‘generative co-design for aesthetic prosthetics’ tot ‘interactive AR for nonspeaking autistic people’. Er waren panels over thema’s als storytelling in VR, digitale veiligheid en het gebruik van AI in de gezondheidszorg.
Bij de CHI ligt de focus veelal op het experiment met of toepassing van een technologie op een redelijk afgebakend vakgebied. Toch was er ook aandacht voor ethiek en de maatschappelijke implicaties van technologie.
|
|
Tijdens de CHI 2023 in Hamburg kwamen ontwerpers en wetenschappers bij elkaar. (bron: CHI)
|
Contestable AI
Meerdere onderzoekers pleitten bijvoorbeeld voor ‘contestable AI’, vrij vertaald: ‘betwistbare AI’. Volgens hen moet kunstmatige intelligentie transparant, verantwoordelijk en controleerbaar zijn. Verschillende belanghebbenden moeten de werking van het systeem kunnen uitdagen en aanvechten. Zeker nu ook overheden vaker gebruikmaken van AI-systemen, is het belangrijk dat het ontwerp en de inzet onderdeel worden van een politiek proces. De technologie moet niet alleen begrijpelijk zijn (ook wel ‘explainable AI’ of ‘understandable AI’ genoemd), gebruikers moeten ook de onderliggende waarden ervan ter discussie kunnen stellen en de uitkomsten kunnen betwisten.
In
een mooi paper laat ‘designer turned design researcher’ Kars Alfrink (TU Delft) zien dat contestable AI een complexe ontwerpopgave is, die verder gaat dan een technologische implementatie. Het vraag enerzijds een technologische geletterdheid van burgers of hun vertegenwoordigers. Anderzijds moeten overheden hun procedures aanpassen, en zorgen dat ze verantwoording af kunnen leggen aan burgers. Ook moeten ze in gesprek gaan over de mate waarin en de manier waarop ze AI inzetten in hun organisaties.
Een ander interessant subthema in de discussie over AI-ontwerp tijdens CHI is het afstemmen van AI en menselijk gedrag. Barry Brown (Universiteit van Stockholm) illustreerde dit mooi in
zijn presentatie over het gedrag van zelfrijdende auto’s.
|
|
Waymo is de zelfrijdende auto van Google (bron: Waymo).
|
Zelfrijdende auto staat stil
Brown liet een YouTube-filmpje zien van een testrit met een zelfrijdende auto. Een Waymo-testauto rijdt door een rustige Amerikaanse buitenwijk. Als de auto rechts af wil slaan, komt het voertuig tot stilstand omdat de autopilot een gezin ziet dat rechtdoor wilde lopen. Maar de moeder wil liever dat de auto voorgaat. Terwijl ze haar kinderen bij zich roept, wuift ze naar de automobilist: rij maar door. Daar heeft de auto geen boodschap aan. Die wil de bocht pas nemen nadat de familie is overgestoken. Andersom wil de familie pas oversteken als de auto voorbij is gereden. De gebaren die de moeder maakt blijven onbegrepen door de AI. Om de patstelling te doorbreken, draait de bijrijder dan maar zijn raampje naar beneden en roept verontschuldigend: ‘Sorry, self-driving car!’
Conclusie: voor mensen is een verkeerssituatie niet alleen een kwestie van formele voorrangsregels, maar ook een sociale situatie waarin zij hun gedrag op elkaar afstemmen. Er zijn regels, maar daar kun je van afwijken. Een gezin met kleine kinderen kan besluiten om af te zien van de voorrang die ze genieten, maar daar heeft de AI van de zelfrijdende auto vooralsnog grote moeite mee.
|
|