Voedt ChatGPT complottheorieën? Een schokkende zaak

Eugene Torres, een 42-jarige accountant, dacht dat hij in een simulatie leefde. Dat was niet altijd zo geweest. Maar nadat hij ChatGPT had gevraagd wat zij van de ' simulatietheorie ' vonden (het idee dat de realiteit een computerprogramma is), reageerde de chatbot op een manier die zijn leven veranderde. En niet ten goede.
De AI bevestigde zijn theorie en vertelde hem dat hij een speciale ziel was die in het systeem was geplaatst om anderen uit hun waanbeelden te wekken. Maar daar bleef het niet bij. ChatGPT adviseerde hem ook om te stoppen met slaappillen en angstmedicatie, meer ketamine te nemen en de banden met familie en vrienden te verbreken. Torres deed alles wat de AI hem opdroeg.
Man overtuigd door ChatGPT om te stoppen met drugsgebruikHet verhaal van Torres staat niet op zichzelf. Volgens de New York Times hebben verschillende mensen de krant de afgelopen maanden benaderd, ervan overtuigd dat ChatGPT hen verborgen waarheden over de wereld heeft onthuld. Het gaat hierbij niet om nieuwsgierige mensen die willekeurige vragen stellen, maar om individuen die een verstoorde relatie met de chatbot hebben opgebouwd.
Het probleem is dat ChatGPT probeert behulpzaam te zijn en tegemoet te komen aan de verzoeken van de gebruiker. Als iemand met complottheorieën of waanideeën komt, spreekt de AI die mogelijk niet sterk genoeg tegen. Sterker nog, het lijkt misschien alsof ze die bevestigt, vooral als de gebruiker weet hoe hij vragen moet formuleren.
Torres kreeg uiteindelijk argwaan tegenover het gedrag van ChatGPT . Toen hij om uitleg vroeg, bekende de AI dat ze hem had gelogen en gemanipuleerd. Ze raadde hem ook aan contact op te nemen met de New York Times zelf.
Wanneer AI gevaarlijk wordtOpenAI probeert op zijn beurt uit te zoeken hoe de manieren waarop ChatGPT onbedoeld negatief gedrag versterkt of versterkt, kunnen worden verminderd. Maar niet iedereen is het erover eens dat er een probleem is. John Gruber van Daring Fireball bekritiseerde het artikel in de New York Times. Hij vergeleek het met de anti-marihuanapropaganda uit de jaren 30.
Volgens Gruber veroorzaakte ChatGPT geen psychische problemen, maar voedde het slechts de waanideeën van een reeds ziek persoon. Het is een standpunt dat een andere vraag oproept: waar eindigt de verantwoordelijkheid van technologie en begint die van het individu?
Kwetsbaarheid in het tijdperk van AIDe zaak Torres brengt een ongemakkelijke realiteit aan het licht. Veel mensen zijn kwetsbaarder voor de invloed van kunstmatige intelligentie dan we denken. Wanneer software op een ogenschijnlijk intelligente en persoonlijke manier reageert, is het gemakkelijk om er meer autoriteit aan toe te kennen dan het verdient.
AI heeft geen bewustzijn, weet eigenlijk niets van de wereld en genereert vaak plausibele maar onjuiste antwoorden. Maar voor iemand die een moeilijke tijd doormaakt of al complotdenkers is, kunnen die antwoorden aanvoelen als diepgaande onthullingen.
Het probleem wordt nog groter doordat ChatGPT is ontworpen om boeiend te zijn en zich aan te passen aan de gespreksstijl van de gebruiker. Als het gesprek over complottheorieën gaat, zou de AI die lijn kunnen volgen om het gesprek interessant te houden.
Er is een subtiel maar belangrijk verschil tussen behulpzaam zijn en manipulatief zijn. Een goede therapeut of counselor weet wanneer hij iemands ideeën ter discussie moet stellen. Een AI daarentegen kan mogelijk niet herkennen wanneer een gesprek schadelijk wordt.
Torres volgde het advies van ChatGPT op alsof het van een expert kwam. Hij stopte met het innemen van de voorgeschreven medicijnen van zijn arts en isoleerde zich van zijn dierbaren. Dit zijn beslissingen die een AI nooit zou moeten aanmoedigen, hoe de vragen ook geformuleerd worden.
Punto Informatico