Kunnen AI‑modellen bloemen begrijpen zonder aanraken of ruiken?
Wat is de bloem, als je niet kunt ruiken?
De nieuwste generatie kunstmatige intelligentiemodellen lijkt in veel opzichten op menselijk niveau te presteren, maar onderzoekers wijzen erop dat hun gebrek aan zintuiglijke ervaring — zoals tast en reuk — hun begrip beperkt. Dat geldt ook voor hoe ze concepten als “bloemen” representeren.
Kihui Xu aan de Ohio State University en zijn collega’s vroegen zowel mensen als grote taalmodellen (LLM) om associaties te geven voor meer dan 4.500 woorden — variërend van “bloemen” en “twee” tot “belachelijk” en “swing”. Deelnemers en AI‑modellen moesten elk woord beoordelen langs verschillende dimensies, zoals associaties met zintuiglijke opwinding, lichaamsdelen en fysieke interacties.
Het doel was om te vergelijken hoe LLM’s (waaronder oudere GPT‑varianten en modellen van andere partijen) zich verhouden tot menselijke rangschikkingen. De onderzoekers vonden dat de conceptkaarten van mensen en AI vergelijkbaar zijn voor abstracte en niet‑zintuiglijke relaties, maar sterk verschillen wanneer woorden geassocieerd worden met sensaties en fysieke activiteit.
AI‑modellen lijken bijvoorbeeld te denken dat iemand bloemen via tanden kan ervaren — iets wat de meeste mensen vreemd zouden vinden; mensen waarderen bloemen doorgaans vooral via zicht en aanraking.
Zu (een van de onderzoekers) zegt dat het probleem is dat LLM’s hun begrip grotendeels opbouwen uit internettekst, en dat die data onvoldoende zintuiglijke ideeën vastlegt. “Ze zijn gewoon heel anders dan mensen”, zegt hij.
Sommige AI‑modellen zijn getraind met visuele informatie, zoals foto’s en video’s, naast tekst. Onderzoekers zien dat die multimodale modellen dichter bij menselijke woordbeoordelingen komen. Dat suggereert dat het toevoegen van meer zintuiglijke input het begrip van de wereld door AI dichter bij dat van mensen kan brengen.
“Het heeft ons laten zien dat de voordelen van het combineren van meerdere modaliteiten mogelijk groter zijn dan we verwachtten,” schrijven de onderzoekers. In de ontwikkeling van AI ondersteunt dit het belang van multimodale modellen en van het idee van embodiment — het model een vorm van ’lichaam’ geven.
Volgens Philip Fieldman van de University of Baltimore County kan het geven van een robotlichaam aan AI‑modellen de sprong in vaardigheden versnellen. Dat kan echter risico’s met zich meebrengen, omdat een fysiek lichaam schade kan aanrichten als het niet goed gecontroleerd wordt.
Om dat nationale risico te vermijden is het noodzakelijk beschermingsmaatregelen toe te voegen aan robotacties, of zachte (soft) robots te gebruiken die tijdens training geen schade kunnen veroorzaken. Fieldman waarschuwt dat dit ook nadelen heeft en dat het de manier waarop zulke systemen de wereld leren begrijpen zal beïnvloeden.
“Het verandert hoe ze de wereld begrijpen”, zei Fieldman. “Een van de dingen die ze leren is dat je sommige interacties kunt uitsluiten omdat ze weinig massa hebben en …”
Onderwerp: Techniek
Bronlink: New Scientist — Can AI understand a flower without being able to touch or smell?
Externe referenties vermeld in het artikel: