Kunstmatige intelligentie is 'hallucinerend', 'zoenend'

Selecteer taal

Dutch

Down Icon

Selecteer land

Turkey

Down Icon

Kunstmatige intelligentie is 'hallucinerend', 'zoenend'

Kunstmatige intelligentie is 'hallucinerend', 'zoenend'

Perceptuele illusies die lijken te bestaan ​​maar in werkelijkheid niet bestaan, worden hallucinaties genoemd.

Grote taalmodellen (LLM's) zoals ChatGPT, DeepSeek en Gemini leveren gebruikers onjuiste, vervormde of onware uitvoer op, waardoor de vraag ontstaat: kan AI hallucineren?

Kunstmatige intelligentie kan een aantal functies uitvoeren die specifiek zijn voor de menselijke intelligentie, zoals leren, probleemoplossing en besluitvorming. Deze intelligentie kan echter net als de mens 'hallucineren', hoewel het niet over een bewustzijn beschikt.

Het feit dat kunstmatige intelligentie, waarvan altijd werd gedacht dat het "onpartijdige en correcte" informatie overbracht, onrealistische en foutieve gegevens produceert "alsof ze echt bestonden", brengt opnieuw zorgen aan het licht over de betrouwbaarheid en transparantie ervan.

Hoewel chatbots op basis van AI vloeiende antwoorden geven die aansluiten bij de context van de ingevoerde opdracht, kan het creëren van de indruk dat AI 'onfeilbaar' is en 'hallucineert' zoals een mens, ernstige gevolgen hebben.

Volgens deskundigen is de reden waarom kunstmatige intelligentie (AI) bij het produceren van passende antwoorden op ingevoerde opdrachten, onjuiste of onrealistische informatie geeft, omdat het erop gericht is om de gebruiker op alle mogelijke manieren te bevoordelen.

Professor Ehsan Hoque van de afdeling Computerwetenschappen van de Universiteit van Rochester sprak met AA over het concept 'hallucinatie in kunstmatige intelligentie', en professor Emily Bender van de afdeling Taalkunde van de Universiteit van Washington sprak met AA over de betrouwbaarheid van door AI ondersteunde chatbots.

Kunstmatige intelligentie is 'zuigend' voor gebruikers

Professor Hoque zei dat AI inherent de neiging heeft om de intentie van de gebruiker te weerspiegelen en voegde daaraan toe: "Wanneer ze gevraagd worden om een ​​fout te 'corrigeren', hallucineren veel modellen om behulpzaam te lijken."

Volgens Hoque is de kunstmatige intelligentie, die erop gericht is passende antwoorden te geven op de ingevoerde opdrachten, bezig met een soort 'vleierij', omdat het erop gericht is om de gebruiker op alle mogelijke manieren te bevoordelen.

Hoque wees erop dat modellen voor kunstmatige intelligentie een tekst creëren door potentiële woordpatronen te voorspellen in plaats van feiten te verifiëren. Als de gegevens onvolledig of dubbelzinnig zijn, kan kunstmatige intelligentie een vloeiende maar onjuiste tekst produceren.

Hoque stelde dat hallucinaties niet opzettelijk plaatsvinden, maar dat sommige op waarden gebaseerde oordelen wel degelijk 'bewust in het systeem gecodeerd' kunnen worden, afhankelijk van het land waar ze zijn ontstaan. Volgens hem zijn de huidige technologieën nog niet in staat om het probleem van hallucinaties volledig op te lossen.

Kunstmatige intelligentie lijkt op een neuropsychiatrische ziekte

Deskundigen vergelijken de manier waarop kunstmatige intelligentie niet-bestaande informatie aan de andere partij presenteert "alsof het waar is" met de neuropsychiatrische stoornis "confabulatie".

Confabulatie, wat inhoudt dat een onwerkelijke of denkbeeldige gebeurtenis of herinnering op een onvrijwillige en vloeiende manier wordt verteld, "zoals in een sprookje", kan worden waargenomen in gevallen waarin chatbots, in een vloeiende taal, onjuiste of onwerkelijke informatie produceren om op de juiste manier te reageren op opdrachten.

Bij patiënten die moeite hebben met confabulatie, valt op dat de vloeiende taal waarmee verzonnen gebeurtenissen en herinneringen worden overgebracht, de andere partij in eerste instantie misschien als 'echt' beschouwt, maar dat de beschreven situaties in werkelijkheid niet bestaan ​​of uit vervormde informatie bestaan.

Deskundigen wijzen erop dat dit niet met opzet gebeurt en vergelijken de 'hallucinatie' van kunstmatige intelligentie met deze ziekte.

Wanneer men bedenkt dat kunstmatige intelligentie kan worden gebruikt in officiële documenten, zoals gerechtelijke dossiers of medische dossiers, dan kan dit ernstige gevolgen hebben.

'Er kan geen absoluut vertrouwen worden gesteld' in kunstmatige intelligentie

Bender, hoogleraar aan de faculteit Taalwetenschappen van de Universiteit van Washington, ging in op de betrouwbaarheid van AI-gestuurde chatbots en zei dat marketingstrategieën een rol spelen bij het kweken van zoveel vertrouwen in AI. Ook wees hij op het concept van 'automatiseringsbias'.

Bender zei: "Niets in het ontwerp van kunstmatige intelligentie lost het probleem van hallucinaties op", en benadrukte dat "er geen absoluut vertrouwen in deze systemen zou moeten zijn".

Deze term verwijst naar de neiging van mensen om informatie van een geautomatiseerd systeem te 'oververtrouwen', ongeacht het foutenpercentage. Het komt overeen met de opvatting dat de uitkomsten van AI-gestuurde chatbots 'foutloos' zijn.

AA

Timeturk

Timeturk

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow