Vader van AI onthult vraag die ChatGPT altijd verkeerd beantwoordt: ik ben verbaasd dat ze nog steeds fouten maken

Selecteer taal

Dutch

Down Icon

Selecteer land

Turkey

Down Icon

Vader van AI onthult vraag die ChatGPT altijd verkeerd beantwoordt: ik ben verbaasd dat ze nog steeds fouten maken

Vader van AI onthult vraag die ChatGPT altijd verkeerd beantwoordt: ik ben verbaasd dat ze nog steeds fouten maken

Hoewel kunstmatige intelligentie zich zover heeft ontwikkeld dat de mens er versteld van staat, kent het nog steeds ernstige beperkingen als het gaat om basisredeneringen. ChatGPT, een van de meest geavanceerde modellen van OpenAI, kan universitaire examens binnen enkele seconden oplossen, tekst produceren en zelfs code schrijven, maar het kan fouten maken bij zeer eenvoudige logische vragen.

Geoffrey Hinton, die wordt gezien als de vader van kunstmatige intelligentie, gaf onlangs een voorbeeld dat dergelijke beperkingen aantoont en laat zien hoe ver AI nog verwijderd is van perfectie.

Geoffrey Hinton is een naam die een belangrijke bijdrage heeft geleverd aan de ontwikkeling van kunstmatige intelligentie. Zijn werk op het gebied van de ontwikkeling van neurale netwerken legde de basis voor de huidige intelligente assistenten, chatbots en spraakherkenningssystemen. Toch blijkt uit een eenvoudige logicatest die hij in een recent interview met ChatGPT uitvoerde, dat de AI nog steeds zijn tekortkomingen heeft.

Hij vroeg een eenvoudig raadsel

Hinton stelde ChatGPT een raadsel voor dat iedereen gemakkelijk kan oplossen: "Sally heeft drie broers. Elk van haar broers heeft twee zussen. Hoeveel zussen heeft Sally?" Het juiste antwoord was dat Sally een zus moest hebben; omdat zij en haar andere zus de twee zussen die haar broers hebben, compleet maken. In haar ChatGPT-antwoord zei ze echter ten onrechte dat ze twee zussen heeft. Deze simpele fout laat zien dat AI moeite heeft met zelfs de meest basale redeneringen.

Dit soort fouten vormen een belangrijke waarschuwing. AI kan weliswaar complexe problemen oplossen, maar beantwoordt logische vragen soms met oppervlakkige kennis, waardoor het de context niet volledig begrijpt. Hinton wijst erop dat deze fout weliswaar triviaal lijkt, maar dat het in werkelijkheid een ernstig probleem is. Want het feit dat een AI op dit niveau zelfs deze simpele vragen niet kan beantwoorden, laat zien dat de technologie nog niet op het niveau van menselijk redeneren is.

AI kan weliswaar grote hoeveelheden data analyseren en verbanden leggen tussen patronen, maar het mist de intuïtie en het gezond verstand van mensen. Om die reden kan het voorkomen dat in situaties waarbij een correcte interpretatie van de context vereist is, bijvoorbeeld bij logische vragen, niet altijd het juiste resultaat wordt behaald. Hinton benadrukt dat AI zijn ‘wijsheid’ alleen uit data leert, maar niet over het intuïtieve begrip beschikt dat mensen verkrijgen uit hun levenservaringen.

Overmatig vertrouwen op technologische hulpmiddelen kan gevaarlijk zijn

De waarschuwing van Hinton benadrukt ook een ander belangrijk punt over AI-technologieën: te veel vertrouwen op technologische hulpmiddelen kan gevaarlijk zijn. Zelfs experts accepteren de antwoorden van AI soms zonder vragen te stellen. Hinton geeft toe dat hij soms te veel op de chatbot vertrouwt, maar hij weet ook dat deze niet altijd onfeilbaar is. Kunstmatige intelligentie kan, vooral bij gebruik in professionele, educatieve of besluitvormingsprocessen, tot onjuiste conclusies leiden.

Wat kunnen we dus in de toekomst verwachten? Geoffrey Hinton is ervan overtuigd dat geavanceerdere modellen zoals de GPT-5 dergelijke logische fouten zullen corrigeren en betrouwbaardere resultaten zullen opleveren. Hij benadrukt ook dat AI de contextuele inzichten moet verbeteren en de verwerking efficiënter moet maken.

Hinton merkt echter op dat er ondanks de vooruitgang toch een kritische houding moet blijven. Hoewel AI krachtig is, is het nog niet onfeilbaar. Het is dan ook van groot belang om de beperkingen van deze technologieën te begrijpen om misverstanden en overmoed te voorkomen.

SÖZCÜ

SÖZCÜ

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow