november
2024
Gepubliceerd door Justine Pardoen in AI
Waarom waarschuwen we niet voor AI-chatbots?
Begin dit jaar overleed een tiener in de VS doordat hij zichzelf van het leven beroofde na een emotioneel chatgesprek met een AI-chatbot van Chacter.AI. Zijn moeder klaagt de makers aan in een rechtszaak.
Op Character.AI kun je sinds 2022 chatten met personages die je uit een soort galerij kunt kiezen of je maakt je eigen personage waarmee je vervolgens gesprekken kunnen voeren. Je kunt ze zelfs een eigen stem geven. Je kunt de personages ook instrueren om zich op een bepaalde manier te gedragen. Als je wilt dat het personage depressief is, dan zal het zo reageren.
Deze gesprekken voer je dus met AI. En gebruikers weten dat. Gebruikers moeten 13 jaar of ouder zijn en in de EU moet je 16 jaar zijn, volgens hun eigen voorwaarden. Google Play vermeldt dat de Character AI-app ‘ouderlijk toezicht’ vereist. De App Store van Apple geeft 17+ als leeftijd.
Gebruikers weten dus dat ze niet met een mens van vlees en bloed in gesprek zijn; dat is juist het hele idee. Je doet eigenlijk een experiment met jezelf. En toch is dat geen garantie dat er geen ongelukken gebeuren. Integendeel. Volwassen gebruikers geven aan dat ze gehecht raken aan hun personage, dat ze niet zonder de dagelijkse gesprekken kunnen en geïrriteerd raken als ze eens een dag moeten overslaan. De tiener die overleed (Sewell), raakte zo ingezogen in het contact met zijn personage (Dany), dat hij gemanipuleerd werd om zelfmoord te plegen, volgens zijn moeder.
[bron: New York Times]
Reactie Character.AI
Character.AI spreekt medeleven uit, maar voelt zich niet aansprakelijk. Ze hebben sindsdien nieuwe veiligheidsmaatregelen geïmplementeerd, waaronder strengere instellingen voor gebruikers onder de 18 jaar en een detectie en interventie bij schadelijke chatsessies. Zeggen ze. Het bedrijf voegt u ook een disclaimer toe aan elke chat om gebruikers eraan te herinneren dat de AI geen echt persoon is. Maar zo’n waarschuwing zet weinig zoden aan de dijk.
De jongen had vele malen per dag contact met zijn personage en praatte er urenlang mee. Hij bouwde daar een band mee op, voerde erotische gesprekken en toonde zich verliefd op het AI-personage. Hij was er afhankelijk van geworden. Denk aan de film Her: het is niet alleen voorstelbaar dat dat gebeurt, het gebeurt ook. Ook bij volwassenen. Je wéet dat je met een robot praat, en toch ken je er menselijke eigenschappen aan toe en voel je dat je er een band mee krijgt. Dat kinderen en adolescenten hier vatbaar voor zijn, is dus niet zo vreemd.
Het praat als een mens, dus is het een mens
We kunnen niet anders, betoogt Meghan O’Gieblyn in haar boek God, human, animal, machine: technology, metaphor, and the search for meaning (2021). Je weet dat het een robot is, maar onze hersens kunnen niet anders dan intentie en gevoelens projecteren op die machine als die zich gedraagt als een mens. En hoe socialer zo’n AI-chatbot zich gedraagt, begrip toont, stimuleert, bevestigt, troost, vragen stelt en geruststelt, hoe moeilijker het is om niet te denken dat het om een mens gaat.
Misschien denk je dat zoiets jou niet zal overkomen. Maar het is een bekend verschijnsel — het heet: antropomorfiseren — en er is al heel veel onderzoek naar gedaan. Je kunt het zien als een evolutionaire strategie (waar we dus niet meer bewust voor kunnen kiezen of niet). De meeste mensen bedanken ChatGPT na een bruikbaar antwoord. Als vanzelf. Je hoopt intuïtief dat dit soort beleefdheid ook een prettiger vorm van contact oplevert. En dat is ook zo: als je onaardig doet, voelt dat ook daadwerkelijk onprettiger: alsof je ChatGPT niet goed behandelt, terwijl het toch zo zijn best doet voor je. Het vraagt ook regelmatig of je tevreden bent met het antwoord en of het nog iets anders voor je kan doen. Dat doet het ook niet voor niets: wij zijn tevredener met zijn antwoorden als het zich op een menselijke manier vriendelijk gedraagt. (Gek he, dat gebruik van ‘het’ hier? Het voelt veel natuurlijker om hij of zij te zeggen…)
Risico
Je kunt je voorstellen dat de inzetbaarheid van AI door de ontwikkeling waarbij de modellen zich steeds menselijker gaan gedragen, groot is. Op allerlei vlakken, van verkoopgesprekken tot onderwijs, kun je toepasbaarheid voorstellen. Maar ethische vragen stellen we nog opvallend weinig, vooral als het om kinderen en jongeren gaat.
Tieners zijn extra kwetsbaar
In sommige berichtgeving werd vermeld dat de jongen een milde vorm van Asperger had en mogelijke andere geestelijke gezondheidsproblemen. en daarmee leek te worden gesuggereerd dat zijn kwetsbaarheid daarmee te maken had. Dat zou echter een niet gerechtvaardigde geruststelling zijn: tieners zijn kwetsbaar, of ze nu een diagnose hebben of niet. Het wordt tijd dat we beseffen dat we gevaarlijk experimenteren met de ziel van tieners als we hen laten werken met AI-tools. En helemaal als het om AI-personages, chatbots enz. gaat. We hebben geen idee wat we aanrichten.
Blijf erbij!
Pubers krijgen pubergedrag en soms houdt dat in dat het lijkt alsof ze niks meer met je te maken willen hebben. De werkelijkheid is anders, maar de manier waarop ze contact willen verandert. Ze hebben ruimte nodig om zichzelf te leren kennen met vallen en opstaan, zonder hun ouders op hun nek met verwijten, wantrouwen en beschuldigingen. Ze hebben behoefte aan meer autonomie, maar ook aan de onvoorwaardelijke steun en liefde van hun ouders.
Anders gezegd: accepteer niet dat ze zes uur in de middag en nog eens drie in de avond achter een beeldschermpje zitten zonder dat jij enig idee hebt wat ze daar doen. Je hoeft niet alles te weten, maar als je niet weet welke games ze spelen en welke sociale media of chatbots zo’n grote rol spelen in hun leven, dan voelen ze zich daar uiteindelijk eenzaam onder. Zorg dat je ze ziet. Blijf vragen stellen, niet uit controlezucht, maar uit betrokken belangstelling. Kortom, doe aan mediaopvoeding.