Van Persuasive Amsterdam tot geautomatiseerde samenleving

Steven Dorrestijn

In april 2017 vond de jaarlijkse conferentie over Persuasive Technology plaats, ditmaal in Amsterdam. Het was een tweedaagse conferentie met daaraan voorafgaand een dag met colloquia voor promovendi en een dag met workshops. Een van de workshops was gewijd aan ethiek van Persuasive Technology. Met ongeveer 15 deelnemers werd flink gediscussieerd over de vraag wat gewenste en ongewenste vormen van Persuasive Technology zijn. In hoeverre zouden mensen bewustzijn moeten hebben van beïnvloedingsstrategieën? In hoeverre is dat praktisch haalbaar? Gaat het niet ten koste van de effectiviteit van gedragsbeïnvloeding als mensen de strategieën helder doorzien? Een ander probleem waarover werd gesproken werd, was of het ooit te voorkomen valt dat Persuasive Technology wordt gekaapt door bedrijven die tegen de bedoeling in alle mogelijke beïnvloedingstechnieken achter de rug van mensen om zullen toepassen voor marketing en gewin.

De deelnemers aan deze workshop vonden het wel jammer dat er de twee dagen daarna weinig aandacht was voor dit soort vragen. De meeste lezingen gingen over voorbeelden van technische systemen om gewenst gedrag te ondersteunen, vooral op het gebied van eHealth. De focus van het wetenschappelijk onderzoek bleek daarbij te liggen op het bepalen van het effect. Persuasive Technology is een aansprekend idee, maar in hoeverre slaagt de gehoopte gedragsbeïnvloeding in de praktijk? Het leek wel of meer theoretische en ethische vragen buiten het blikveld konden blijven, omdat iedereen zich richtte op onschuldige en gewenste vormen van gedragsbeïnvloeding. “Behavior support system” was een veel gehoorde term. Persuasive Technology zoals het bedoeld is gaat over techniek die mensen met medeweten van henzelf ondersteunt in de richting van gedrag dat zij zelf en anderen gewenst vinden.

De conferentie kende een opmerkelijke afsluiting. Terwijl het ethische perspectief het grootste deel van de conferentie te veel op de achtergrond bleef, was de afsluitende lezing door de Zwitserse socioloog Dirk Helbing een donderpreek van een uur lang over de “automatisering van de samenleving” (zie Helbing 2015; 2017). De lezing was een indringende oproep om alert te worden op het gebruik van “big data” en “computeralgoritmes” om mensen te besturen. In plaats van dat we kritisch nadenken over wat waar en goed is, laten we ons door data, statistieken en algoritmes voorzeggen wat we moeten doen. De beïnvloeding van stemmers bij de recente Amerikaanse presidentsverkiezingen was het centrale voorbeeld. Er zijn volop aanwijzingen dat zowel de kandidaten in de VS onderling als andere staten van buitenaf zich inlaten met pogingen om verkiezingen te beïnvloeden door berichten op sociale media te verspreiden. Daarbij kan dezelfde kandidaat voor de ene kiezer gepresenteerd worden als groen en voor de ander als patriottistisch. Het gaat om het winnen van een stem, niet om correcte voorlichting.

Gezien vanuit de techniekfilosofie gaf Helbing een nauwelijks genuanceerde, dystopische evaluatie van alle feiten en vermoedens. Misschien is deze dystopische visie een retorische strategie om het gehoor te overtuigen van het belang van de zaak, als startpunt voor een discussie over vrijheid en participatie van burgers in de digitale en slimme toekomst. Het is wel de vraag of een donderpreek alleen genoeg is voor het openen van zo’n discussie. We moeten ook op een meer genuanceerde en ambivalente manier onze situatie van vandaag leren begrijpen.

Dat is precies wat we in dit artikel willen doen met ons onderzoek naar de betekenis van vrijheid en zelfreflectie niet tegenover maar in de wereld vol slimme technologie.
[Wordt vervolgt in een artikel in voorbereiding over het Filosofisch mensbeeld van Persuasive Technology]