AGI-voorspelling 2027: 24 maanden sprint naar menselijk-niveau AI?
AGI in 2027? Een 24‑maanden sprintkaart en wat dat betekent Word lid van onze dagelijkse en wekelijkse kranten voor exclusieve inhoud over …
Word lid van onze dagelijkse en wekelijkse kranten voor exclusieve inhoud over de nieuwste updates en AI-dekking in de industrie. Leer meer
De verre horizon is altijd Marki, de details van de minuut zijn onduidelijk door de pure afstand en atmosferische mist. Dit is de reden waarom de toekomstige voorspelling zo ondoordringbaar is: we kunnen de schets van de vormen en gebeurtenissen voor ons niet duidelijk zien. In plaats daarvan nemen we goed opgeleide schattingen.
Nieuw gepubliceerd AI 2027 — het landschap ontwikkeld door een team van AI-onderzoekers en voorspellers, met ervaring in instellingen zoals OpenAI en Center for AI Policy — biedt een gedetailleerde voorspelling van 2 tot 3 jaar voor de toekomst, inclusief specifieke technische mijlpalen. Omdat het nauwe periodes is, spreekt het met grote duidelijkheid over de toekomst van onze AI.
Geïnformeerd door uitgebreide specialistische reactie- en landschapsplanningsoefeningen, onderstreept AI 2027 de voortgang van een vierde voor de dag van verwachte AI-mogelijkheden, met name multimodale modellen die geavanceerde argumenten en autonomie ontvangen. Deze voorspelling is met name opmerkelijk omdat zijn bijdragers direct inzicht hebben in de huidige onderzoekspijpleidingen.
De meest opvallende profetie is dat kunstmatige algemene intelligentie (AGI) in 2027 zal worden bereikt en dat kunstmatige superintelligentie (ASI) maanden later zal volgen. Van AGI-wetenschappelijk onderzoek tot creatieve inspanningen, aanpassingscapaciteit, algemene kennisargumenten en zelfhervorming, komt overeen met meer menselijke vaardigheden in bijna alle cognitieve functies. ASI gaat vooruit en vertegenwoordigt systemen die de menselijke intelligentie dramatisch overtreffen, met het vermogen om problemen op te lossen die we niet eens kunnen begrijpen.
Zoals veel profetieën, zijn deze gebaseerd op aannames: het is niet gegarandeerd dat AI-modellen en -apps hetzelfde tempo blijven houden als in de afgelopen jaren. Het is bijvoorbeeld plausibel, maar garandeert geen onbeperkte exponentiële vooruitgang, vooral omdat het schalen van deze modellen nu een dalend rendement kan veroorzaken.
Niet iedereen is het eens met deze voorspellingen. De CEO van het Allen Institute for Artificial Intelligence, Ali Farhadi, vertelde The New York Times: “Ik ben voor alle schattingen en voorspellingen, maar het (AI 2027) lijkt niet in het voorspelde wetenschappelijke bewijs, of hoe dingen zich ontwikkelen in AI, de realiteit ervan.”
Er zijn echter anderen die deze ontwikkeling serieus nemen. Anthropic-medeoprichter Jack Clark schreef in de nieuwsbrief Import AI dat AI 2027 “de beste behandeling kan lijken op ’leven in een exponentieel’”. Deze tijdlijn komt ook overeen met opmerkingen van Anthropic-CEO Dario Amodei, en met analyses van Google DeepMind. Zie ook een nieuw onderzoeksdocument dat mogelijke tijdlijnen en veiligheidsimplicaties onderzoekt: Een nieuw onderzoekspaper dat uitwijst dat AGI mogelijk rond 2030 kan verschijnen in bepaalde scenario’s.
Het lijkt op een cruciale moment in de geschiedenis, vergelijkbaar met de uitvinding van de drukpers of de verspreiding van elektriciteit — maar die eerdere transformaties speelden zich uit over jaren en decennia. De komst van AGI kan anders zijn en potentieel veel sneller.
AI 2027 beschrijft een scenario waarin, vanwege misalignment met menselijke waarden, superintelligente AI de menselijke belangen ernstig kan schaden. Als ze gelijk hebben, kan het grootste risico voor de mensheid binnen dezelfde planningshorizon liggen als de levenscyclus van consumententechnologie. Google DeepMind merkt op dat het document een potentieel resultaat van AGI beschrijft, maar benadrukt ook onzekerheden.
De visie veranderde in het verleden geleidelijk, totdat overtuigend bewijs het paradigma verschuift — zoals Thomas Kuhn betoogde in The Structure of Scientific Revolutions. Paradigmaverschuivingen gebeuren niet overal tegelijk; ze lijken plotseling nadat voldoende bewijs is verzameld.
Vóór het verschijnen van grote taalmodellen (LLMs) en ChatGPT waren gemiddelde tijdlijnprojecties voor AGI veel langer. De consensus onder experts en voorspellende markten plaatste de verwachte aankomst rond 2058. Voor 2023 stelde Geoffrey Hinton — “AI’s Godfather” — ooit dat AGI “30 tot 50 jaar of zelfs meer” kon duren. De vooruitgang van LLMs heeft sommige experts echter doen bijstellen, met opmerkingen dat AGI mogelijk eerder kan komen.
Er zijn veel implicaties voor de mensheid als AGI de komende jaren arriveert en snel gevolgd wordt door ASI. Jeremy Kahan schreef in Fortune dat als AGI binnenkort arriveert, “het echt een groot banenverlies kan veroorzaken, omdat veel organisaties zich zullen richten op automatisering van rollen.”
Een tweejarige AGI-runway zou onvoldoende tijd geven voor brede aanpassing door individuen en bedrijven. Sectoren zoals klantenservice, productie, programmering en data-analyse kunnen aanzienlijke ontwrichting ervaren voordat nieuwe infrastructuren en werkmodellen zijn ingebed. Deze druk neemt toe als bedrijven kosten en efficiëntie prioriteren en arbeid vervangen door automatisering.
Zelfs als AGI geen massale werkverliezen of uitsterven veroorzaakt, zijn er andere zware effecten. Een belangrijk filosofisch vraagstuk is wat het betekent voor menselijke identiteit als machines kunnen denken of ernaar lijken te handelen. Sinds Descartes is het westers denken sterk verbonden met het idee dat denken onze bestaansgrond is: “Cogito, ergo sum” — “Ik denk, dus ik ben.”
Als we ons denken steeds meer uitbesteden aan AI, roept dat existentiële vragen op over zelfbeeld en waarde. Recente studies suggereren dat overmatig vertrouwen op generatieve AI kan leiden tot verminderd kritisch denken en langdurige verslechtering van bepaalde cognitieve vaardigheden. Zie bijvoorbeeld een rapport van Microsoft dat in samenvatting door derden is besproken: Recente studie en een samenvatting daarvan bij 404 Media.
Als AGI binnen enkele jaren komt — of kort daarna — moeten we niet alleen snel omgaan met werk en veiligheidsimplicaties, maar ook met vragen over wie we zijn. Tegelijk moeten we onderzoek en veiligheidsmaatregelen versnellen, schade beperken en de voordelen van krachtige AI benutten om menselijke mogelijkheden uit te breiden.
Denk aan beleid en acties op drie niveaus:
De voorspellingen in AI 2027 kunnen juist of onjuist blijken, maar ze zijn waardevol als stimulans om nu te handelen. De tijd van abstract debat over verre toekomsten is voorbij; er is een directe behoefte aan voorbereiding op korte termijn veranderingen. Onze toekomst zal niet uitsluitend door algoritmen worden geschreven, maar door keuzes die wij vandaag maken.
Garry Grossman is EVP van de technologiepraktijk van Edelman en wereldwijd hoofd van het Edelman AI Centre of Excellence. Zie ook Edelman.
AGI in 2027? Een 24‑maanden sprintkaart en wat dat betekent Word lid van onze dagelijkse en wekelijkse kranten voor exclusieve inhoud over …