Breaking News
Nieuws

OpenAI publiceert O3 en O4‑Mini — gesimuleerde redeneermodellen met volledige tooltoegang

Redactie

OpenAI publiceert nieuwe gesimuleerde redeneermodellen met volledige tooltoegang

Woensdag verscheen er een verklaring over twee nieuwe modellen — O3 en O4‑Mini — die de capaciteit van gesimuleerde redenering combineren met toegang tot functies zoals webbrowsen en coderen. Deze modellen zijn de eerste keer dat OpenAI’s op redenering gerichte modellen verschillende ChatGPT‑tools tegelijk ondersteunen, inclusief visuele analyse en beeldgeneratie. Meer informatie staat in de aankondiging: Verklaring.

OpenAI kondigde eerder onderdelen van dit werk in december aan en er waren tot nu toe kleinere, minder capabele afgeleide modellen beschikbaar. De nieuwe modellen vervangen echter hun voorgangers en vormen een stap richting meer robuuste, multitool‑ondersteunde modellen.

OpenAI‑abonnees (ChatGPT Plus, Pro en Teams) en EDU‑gebruikers krijgen volgende week toegang; gratis gebruikers kunnen O4‑Mini uitproberen door de optie “Denk” te selecteren voordat ze een vraag indienen. OpenAI’s CEO Sam Altman merkte hierover op op X: We verwachten de 3‑Pro‑variant binnen een paar weken te onthullen.

Voor ontwikkelaars zijn beide modellen vandaag beschikbaar via de API en de Response API, hoewel sommige organisaties verificatie moeten doorlopen om toegang te krijgen.

De nieuwe modellen bieden volgens OpenAI verschillende verbeteringen. Op de website van OpenAI staat: “Dit zijn de slimme modellen die we vandaag hebben gepubliceerd, die een verandering van het vermogen van ChatGPT voor onderzoekers en nieuwsgierige gebruikers vertegenwoordigen.” OpenAI zegt ook dat de modellen betere uitvoeringsvaardigheden hebben dan hun voorgangers, en dat elke variant voor een specifiek doel is geoptimaliseerd: O3 is een kleinere, efficiëntere versie van de volgende generatie SR‑model, en O4‑Mini biedt soortgelijke verbeteringen in een compacte vorm.

OpenAI heeft aangegeven dat de multimodale capaciteiten van deze modellen zich manifesteren in de vaardigheid “Think with Images”, waarmee modellen beelden kunnen gebruiken als onderdeel van hun redeneringsproces.

Andere modellen van OpenAI (zoals GPT‑4O en GPT‑4.5) vormen het bredere kader waarbinnen deze nieuwe modellen opereren. De gesimuleerde redeneercapaciteit van de modellen gebruikt een stap‑voor‑stap “denken”‑proces om problemen op te lossen. De nieuwe modellen bepalen dynamisch wanneer en hoe ze hulpmiddelen inzetten om meerstapsproblemen aan te pakken. Wanneer bijvoorbeeld gevraagd wordt naar toekomstig energiegebruik in Californië, kunnen de modellen autonoom gegevens van nutsbedrijven zoeken, Python‑code schrijven om voorspellingen te maken, visualiserende grafieken genereren en de onderliggende oorzaken achter voorspellingen uitleggen — alles binnen één interactie.

Bronlink: Ars Technica — OpenAI releases new simulated reasoning models with full tool access

Redactie

Ervaren journalist met passie voor nieuws en actualiteiten.