Nieuws

2027 AGI-voorspelling maakt 24 maanden sprintkaart voor AI op menselijke niveau


Word lid van onze dagelijkse en wekelijkse kranten voor exclusieve inhoud over de nieuwste updates en AI-dekking in de industrie. Leer meer


De verre horizon is altijd Marki, de details van de minuut zijn onduidelijk door de pure afstand en atmosferische mist. Dit is de reden waarom de toekomstige voorspelling zo ondoordringbaar is: we kunnen de schets van de vormen en gebeurtenissen voor ons niet duidelijk zien. In plaats daarvan nemen we goed opgeleide schattingen.

Nieuw gepubliceerd AI 2027 Het landschap ontwikkeld door een team van AI -onderzoekers en voorspellingen, met ervaring in instellingen zoals OpenAI en Center for AI Policy, biedt een gedetailleerde voorspelling van 2 tot 3 jaar voor de toekomst, inclusief specifieke technische mijlpalen. Omdat het nauwe periodes is, spreekt het met grote duidelijkheid over de toekomst van onze AI.

Geïnformeerd door uitgebreide specialistische reactie- en landschapsplanningsoefeningen, onderstreept AI 2027 de voortgang van een vierde voor de dag van verwachte AI-mogelijkheden, met name multimodale modellen die geavanceerde argumenten en autonomie ontvangen. Deze voorspelling is met name opmerkelijk dat zijn uniekheid en zijn bijdragers zowel het directe inzicht in de huidige onderzoekspijpleidingen hebben.

De meest opvallende profetie is dat kunstmatige algemene intelligentie (AGI) in 2027 zal worden bereikt en dat kunstmatige spintaliteit (ASI) maanden later zal volgen. Van AGI-wetenschappelijk onderzoek tot creatieve inspanningen, aanpassingscapaciteit, algemene kennisargumenten en zelfhervorming, komt overeen met meer menselijke vaardigheden in bijna alle cognitieve functies. ASI gaat vooruit, vertegenwoordigt systemen die de menselijke intelligentie dramatisch doorkruisen, met het vermogen om problemen op te lossen die we niet eens kunnen begrijpen.

Zoals veel profetieën, zijn deze gebaseerd op overtuigingen, waarvan het tenminste niet is dat de AI -modellen en apps snel zullen blijven bewegen, zoals ze de afgelopen jaren hebben. Het is bijvoorbeeld bewonderenswaardig, maar garandeert geen verwachting van exponentiële vooruitgang, vooral omdat het schalen van deze modellen nu een laag rendement kan doden.

Niet iedereen is het eens met deze voorspellingen. Ali Institute for Artificial Intelligence CEO Ali Farhadi vertelde het Allah -instituut The New York Times: “Ik ben voor alle schattingen en voorspellingen, maar het (AI 2027) lijkt niet in het voorspelde wetenschappelijke bewijs, of hoe dingen zich ontwikkelen in AI, de realiteit ervan.”

Er zijn echter andere mensen die deze ontwikkeling als lovenswaardig beschouwen. Antropische mede-oprichter Jack Clarke schreef in zichzelf U hebt import De nieuwsbrief dat AI 2027 is: “De beste behandeling kan eruit zien als ‘leven in een exponentieel’. Hij zei dat dit er een is ,,Het technisch verbluffende verhaal van de volgende jaren van AI -ontwikkeling. “Deze tijdlijn komt ook in overeenstemming met het voorstel dat wordt voorgesteld door de antropische CEO Dario Amodi, die heeft gezegd dat AI dat AI die mensen in de komende twee tot drie jaar in bijna alles kan kruisen, en zei Google DeepMind. Een nieuw onderzoekspaper Hij kan in 2030 briljant komen.

Grote versnelling: onderbreking zonder voorbeeld

Het ziet eruit als een gunstige tijd. Soortgelijke momenten zijn in de geschiedenis gekomen, inclusief de uitvinding van de drukpers of de verspreiding van elektriciteit. Die vooruitgang vereiste echter vele jaren en decennia, die een aanzienlijke impact hebben.

De komst van Agi lijkt anders en potentieel beangstigend, vooral als het aangrenzend is. AI 2027 beschrijft een landschap, dat, vanwege misverstand met menselijke waarden, superintendent AI Humanity vernietigt. Als ze correct zijn, kan het meest resulterende risico voor de mensheid nu binnen dezelfde planningshorizon zijn als uw volgende smartphone -upgrade. Voor zijn aandeel merkt Google DeepMind op dat het papier dat een potentieel resultaat is van AGI, hoewel niet mogelijk in hun opvattingen.

De mening verandert geleidelijk totdat mensen zwaar bewijs krijgen. Dit is een take -off van het unieke werk van Thomas Kuan “De structuur van wetenschappelijke revoluties“Kuan herinnert ons eraan dat de Wereldvisie niet ’s nachts verschuift, tot plotseling, zij met AI.

De toekomst komt in de buurt

Vóór het verschijnen van grote taalmodellen (LLMS) en CHATGPT was de gemiddelde tijdlijnprojectie voor AGI langer dan vandaag. De consensus tussen experts en voorspellende markten hield de verwachte aankomst verwacht van het gemiddelde van AGI rond 2058. Vóór 2023, Jeffri Hinton – “AI’s Godfather” en een Turing Award -winnaar – een van de Turing Award -winnaars – Thott Agi “Het was 30 tot 50 jaar of zelfs meer.” De vooruitgang van LLMS inspireerde hem echter om van gedachten te veranderen en zei Kan binnenkort komen als 2028,,

Er zijn veel implicaties voor de mensheid als AGI de komende jaren arriveert en snel wordt gevolgd door ASI. Schrijven GelukJeremy Kahan zei dat als de Agi de komende jaren binnenkomt, “het echt een groot banenverlies kan veroorzaken, omdat veel organisaties worden gericht om automatisch automatisch naar rollen te gaan.”

De twee -jarige Agi Runway biedt een onvoldoende respijtperiode om individuen en bedrijven aan te passen. Industrieën zoals klantenservice, materiële productie, programmering en gegevensanalyse kunnen een dramatische onrust weerstaan ​​voordat de infrastructuur wordt hervat. Deze druk wordt alleen maar toeneemend wanneer er in deze tijdslimiet een vertraging is wanneer bedrijven al naar de loonkosten kijken en personeel vaak met automatisering onderdrukken.

Kogito, ergo … oh?

Zelfs als AGI geen uitgebreid banenverlies of uitsterven van soorten veroorzaakt, zijn er andere ernstige effecten. Sinds de leeftijd is het menselijk bestaan ​​gebaseerd in de overtuiging dat we ertoe doen omdat we denken.

De overtuiging dat denken ons bestaan ​​definieert, diepe filosofische wortels. Het was Rene Descartes, die in 1637 schreef, die nu de beroemde uitdrukking verduidelijkte: “J Pence, Don J Suis” (“Ik denk, dus ik ben”). Hij vertaalde het later in het Latijn: ,,Ik denk dat ik daarom ben,, Daarbij stelde hij voor dat zekerheid kon worden gevonden in het werk van persoonlijke gedachten. Zelfs als hij werd misleid door zijn zintuigen, of misleid door anderen, het feit dat hij dacht dat hij bestond.

In deze benadering zijn zelf verankerd in gevoel. Het was op dat moment een revolutionair idee en verlichting gaf aanleiding tot humanisme, wetenschappelijke methode en uiteindelijk moderne democratie en persoonlijke rechten. De mens werd de centrale figuren van de moderne wereld als denker.

Dat roept een diepe vraag op: als machines nu kunnen denken of lijken te denken, en we ons denken voor AI uitbesteden, wat betekent het dan voor ons eigen moderne concept? A Recente studie gemeld door 404 media Zoekt naar deze puzzel. Het bleek dat wanneer mensen te veel vertrouwen op genereuze AI’s voor werk, ze hechten aan minder kritisch denken, na verloop van tijd, “kan leiden tot de verslechtering van cognitieve vermogens die moeten worden bewaard.”

Waar gaan we heen vanaf hier?

Als de AGI de komende jaren komt – of daarna snel – moeten we niet alleen snel worstelen met banen en implicaties voor veiligheid, maar wie wij zijn. En we moeten dit doen, terwijl we de ontdekking versnellen, pijn verminderen en ook het buitengewone vermogen om het menselijk vermogen op ongekende manieren te vergroten te accepteren. Amodei heeft bijvoorbeeld gezegd dat “krachtige AI” 100 jaar biologisch onderzoek en de voordelen ervan mogelijk maakt, waaronder betere gezondheidszorg, gecomprimeerd in 5 tot 10 jaar.

De voorspellingen gepresenteerd in AI 2027 kunnen al dan niet correct zijn, maar ze zijn bewonderenswaardig en stimulerend. En die gordeling zou voldoende moeten zijn. Als mensen bij het bureau, en als leden van bedrijven, regeringen en samenlevingen, moeten we nu werken aan het werk dat eraan komt.

Voor bedrijven betekent dit investeren in zowel technisch AI -veiligheidsonderzoek als de flexibiliteit van de organisatie, het creëren van rollen die AI -vaardigheden integreren door de menselijke kracht te vergroten. Voor regeringen vereist het een snelle groei van het wettelijke kader dat onmiddellijke zorgen aanpakt, zoals modelevaluatie en overlevingsrisico’s op lange termijn. Voor individuen betekent dit omarmen om zich continu te concentreren op specifieke menselijke vaardigheden, waaronder creativiteit, emotionele intelligentie en complexe beslissingen, terwijl het ontwikkelen van gezonde werkrelaties met AI -apparaten die ons bureau niet verminderen.

De tijd van abstract debat over verre futures is verstreken; Er is een onmiddellijke vereiste van solide voorbereiding op wijzigingen op korte termijn. Onze toekomst zal niet alleen door algoritmen worden geschreven. Dit wordt gevormd door de opties die we hebben gemaakt en de opties die aan de waarden van vandaag voldoen.

Garry Grossman is de EVP van de technologiepraktijk Edelman En de wereldwijde voorsprong van Edelman AI Centre of Excellence.



Bronlink

Related Articles

Back to top button