Techniek

Moeten de regeringen AI echt gebruiken om de staat opnieuw te maken?


Trump wil de Amerikaanse overheid faciliteren met behulp van AI om de administratievaardigheden te verbeteren

Gregory Disallvo/Getty figuur

Wat is kunstmatige intelligentie? Dit is een vraag die wetenschappers sinds het begin van de jaren 1950 worstelen, toen Alan Turing vroeg: “Kunnen de machines denken?” Nu de grote taalmodellen (LLM) in de wereld zijn gepubliceerd, zoals Chatgpt, worden niet meer onder druk gezet dan een antwoord vinden.

Hoewel het gebruik ervan al is uitgebreid, evolueren de sociale regels rond deze nieuwe AI -apparatuur nog steeds snel. Moeten studenten ze gebruiken om artikelen te schrijven? Zullen ze uw therapeut vervangen? En kunnen ze de regering aanzetten?

Deze laatste vraag wordt gesteld in zowel de Verenigde Staten als het Verenigd Koninkrijk. Onder de nieuwe Trump -administratie is de overheidsvaardigheidsafdeling (doses) van Elon Mask de federale medewerkers van de Task Force en een chatbot, GSAI die naar degenen die blijven rollen, verwijdert. Ondertussen heeft de Britse premier Care Starmar AI een “gouden kans” genoemd die de staat kan helpen weer te geven.

Natuurlijk zijn er banen van de overheid die kunnen profiteren van automatisering, maar wat zijn de LLM’s de juiste apparatuur voor de baan? Een deel van het probleem is dat we het nog steeds niet eens kunnen zijn wat ze echt zijn. Het werd deze week op de juiste manier weergegeven, wanneer Nieuwe wetenschapper Secretaris Peter Kyle’s ChatZP heeft de Information Freedom (FOI) -wet gebruikt om interacties te krijgen in de Britse wetenschap, innovatie en technologie. Politici, experts op het gebied van gegevensprivacy en journalisten – niet van ons – waren geschokt dat het verzoek werd ingewilligd, een minister zou een soortgelijk verzoek krijgen voor de geschiedenis van Google -zoekopdracht, meestal afgewezen.

De records zijn vrijgegeven van de Britse regering met behulp van de Chatzpt als het gesprek van de minister met ambtenaren via e -mail of WhatsApp, beide zijn onderworpen aan de FOI -wet. Kyle’s interactie met Chatzpt duidt niet op enige afhankelijkheid van AI om een ​​serieus beleid te vormen – een vraag was dat hij in elke podcast aanwezig zou moeten zijn. Desalniettemin werd het FOI -verzoek ingewilligd dat sommigen van de regering van mening zijn dat AI kan worden gesprekken als een mens, die gerelateerd is.

Als Nieuwe wetenschapper Hij heeft algemeen gemeld dat de huidige LLMS in enige zinvolle zin niet intelligent is en ze zijn net zo verantwoordelijk voor het onnodige gebruik van het nuttige advies. Bovendien zullen hun antwoorden ook de onderliggende vooringenomenheid van hun voedingsinformatie weerspiegelen.

Veel AI -wetenschappers die opgroeien met dit aspect dat LLMS niet het hoge doelwit van kunstmatige algemene intelligentie (AGI) is, is een persoon in staat om te matchen of te kruisen wat een man kan doen – een machine die het heeft bewaard, zoals het turideren. In recente enquêtes van AI -onderzoekers zegt bijvoorbeeld ongeveer 76 procent respondenten dat het “onmogelijk” of “zeer onmogelijk” is dat de huidige benaderingen erin zullen slagen AGI te bereiken.

In plaats daarvan moeten we waarschijnlijk op een nieuwe manier aan deze AI’s denken. Tijdschrift Wetenschap Deze weekEen team van AI -onderzoekers zegt dat “ze aanvankelijk niet als intelligente agenten moeten zien, maar moeten worden gezien als een nieuw type culturele en sociale technologie, waarmee mensen kunnen profiteren van de informatie van anderen”. Onderzoekers vergelijken LLM met “schrijven, afdrukken, markten, bureaucratie en representatieve democratie” die we hebben omgezet in een manier van toegang en procesverwerking.

Aldus ingelijst worden de antwoorden op veel vragen duidelijker. Kan de overheid LLM gebruiken om vaardigheden te verbeteren? Natuurlijk, natuurlijk, alleen wanneer mensen hun sterke punten en beperkingen begrijpen. Wat moet interactie met chatbots onderworpen zijn aan de vrijheid van de informatiewetgeving? Waarschijnlijk moeten bestaande CARV-outes die zijn ontworpen om ministers een “veilige plek” voor interne discussies te geven, echter worden toegepast. En wat, zoals Turing wordt gevraagd, denken de machines? Nee Nog niet.

Onderwerp:



Bronlink

Related Articles

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Back to top button