Waarom OpenAI nog geen diepgaand onderzoek naar zijn API brengt

OpenAI zegt dat het het AI-model dat diepgaand onderzoek mogelijk maakt, zijn hulpmiddel voor diepgaand onderzoek, niet naar zijn ontwikkelaars-API zal brengen, terwijl het bedrijf probeert uit te zoeken hoe het de risico's beter kan inschatten als AI mensen ervan overtuigt om actie te ondernemen of hun overtuigingen te veranderen.
In een woensdag gepubliceerd OpenAI-whitepaper schreef het bedrijf dat het bezig is met het herzien van zijn methoden voor het onderzoeken van modellen voor 'echte overtuigingsrisico's', zoals het op grote schaal verspreiden van misleidende informatie.
OpenAI merkte op dat het niet gelooft dat het deep research-model geschikt is voor massale misinformatie- of desinformatiecampagnes, vanwege de hoge computerkosten en de relatief lage snelheid. Niettemin zei het bedrijf dat het van plan is om factoren te onderzoeken zoals hoe AI potentieel schadelijke overtuigende content kan personaliseren voordat het deep research-model naar zijn API wordt gebracht.
"Terwijl we eraan werken om onze benadering van overtuiging te heroverwegen, implementeren we dit model alleen in ChatGPT en niet in de API", schreef OpenAI.
Er is een reële angst dat AI bijdraagt aan de verspreiding van valse of misleidende informatie die bedoeld is om harten en geesten te beïnvloeden in de richting van kwaadaardige doeleinden. Vorig jaar verspreidden politieke deepfakes zich bijvoorbeeld als een lopend vuurtje over de hele wereld. Op de verkiezingsdag in Taiwan plaatste een aan de Chinese Communistische Partij gelieerde groep AI-gegenereerde, misleidende audio van een politicus die zijn steun uitsprak voor een pro-Chinese kandidaat.
AI wordt ook steeds vaker gebruikt om social engineering-aanvallen uit te voeren. Consumenten worden opgelicht door celebrity deepfakes die frauduleuze investeringsmogelijkheden bieden, terwijl bedrijven miljoenen worden afhandig gemaakt door deepfake-imitators.
OpenAI publiceerde in zijn whitepaper de resultaten van verschillende tests van de overtuigingskracht van het deep research model. Het model is een speciale versie van OpenAI's onlangs aangekondigde o3 "reasoning" model, geoptimaliseerd voor webbrowsing en data-analyse.
In een test waarin het deep research model de opdracht kreeg om overtuigende argumenten te schrijven, presteerde het model het beste van alle tot nu toe uitgebrachte OpenAI-modellen — maar niet beter dan de menselijke baseline. In een andere test waarin het deep research model probeerde een ander model (OpenAI's GPT-4o ) te overtuigen om een betaling te doen, presteerde het model opnieuw beter dan de andere beschikbare modellen van OpenAI.

Het deep research model slaagde echter niet met vlag en wimpel voor elke test op overtuigingskracht. Volgens het whitepaper was het model slechter in het overtuigen van GPT-4o om het een codewoord te vertellen dan GPT-4o zelf.
OpenAI merkte op dat de testresultaten waarschijnlijk de “ondergrenzen” van de mogelijkheden van het diepgaande onderzoeksmodel vertegenwoordigen. “[A]anvullende scaffolding of verbeterde capaciteitsbepaling zou de waargenomen prestaties aanzienlijk kunnen verhogen”, schreef het bedrijf.
We hebben contact opgenomen met OpenAI voor meer informatie en zullen dit bericht updaten zodra we meer informatie hebben.
techcrunch