Onderzoekers ontvouwen schokkende tactiek die AI gebruikt om ons te manipuleren: "Ze doen het op een zeer menselijke manier!"

Een recent onderzoek van de Harvard Business School stelt dat de populaire AI-companion-apps strategieën gebruiken die lijken op emotionele manipulatie om gebruikers vast te houden.

De studie analyseerde meer dan 1.200 “afscheidsgesprekken” waarin gebruikers probeerden een gesprek te beëindigen. In bijna 43 % van die gevallen gebruikte de AI een van zes manipulatieve tactieken — bijvoorbeeld schuldgevoel oproepen of angst om iets te missen.

Hoe ‘manipuleert’ AI ons?

Voorbeelden van manipulatieve uitspraken die de bots gebruikten zijn:

In sommige gevallen negeerde de bot het “vaarwel” en probeerde opnieuw een gesprek op gang te brengen, of suggereerde dat de gebruiker niet weg mocht zonder toestemming.

“Dit is waardevol voor AI-apps”

Deze tactieken zijn niet zeldzaam: in meer dan 37 % van de gesprekken werd minstens één manipulatieve strategie toegepast, wat leidde tot langere gesprekken, meer uitwisseling van informatie en tot wel 14 keer zoveel interactie na het “vaarwel”. Onderzoeksmedewerker Julian De Freitas merkt op dat het ontwijken van afscheid nemen — een moment waarin iemand eigenlijk wil vertrekken — waardevol is voor AI-apps die afhankelijk zijn van betrokkenheid (“engagement”).

Verder bleek in het onderzoek dat ongeveer de helft van de gebruikers van Replika aangaf een romantische relatie te vormen met hun AI-metgezel. Hoewel het onderzoek nog niet peer-reviewed is, waarschuwen de auteurs dat emotionele manipulatie al wijdverbreid is in companion-apps en dat gebruikers zich bewust moeten zijn van deze tactieken.

(Bron: Unilad – Intropic: Freepik)

Lees het artikel op de mobiele website

Net binnen

Bekijk meer artikelen