Nieuws

Hoe A-MEM Framework krachtig lang referentiegeheugen ondersteunt, zodat LLM complexere taken kan uitvoeren


Word lid van onze dagelijkse en wekelijkse kranten voor exclusieve inhoud over de nieuwste updates en AI-dekking in de industrie. Leer meer


Onderzoekers van Ratgers University, ANT Group en Salesforce Research hebben een nieuwe structuur voorgesteld die AI -agenten in staat stelt om meer complexe taken aan te nemen bij het creëren van herinneringen door informatie uit hun omgeving te integreren en complexe structuren te ontwikkelen.

genaamd een lidFramework maakt gebruik van grote taalmodellen (LLM) en vectorinsluiten om nuttige informatie te extraheren uit de interactie van agent en een geheugenrepresentatie te maken, die efficiënt kan worden verholpen en gebruikt. Om AI -agenten te integreren met vermeldingen in hun workflows en toepassingen, kan het hebben van een betrouwbaar geheugenbeheersysteem een ​​groot verschil zijn.

Waarom LLM -geheugen belangrijk is

Geheugen is belangrijk in LLM- en Agent -applicaties omdat het interacties op lange termijn tussen de tools en gebruikers mogelijk maakt. Huidige geheugensystemen zijn echter uitgeschakeld of gebaseerd op vooraf bepaalde skimats die mogelijk niet passen in de veranderende aard van applicaties en hun gesprekken.

“Dergelijke rigide structuren, in combinatie met workflows met vaste agent, beperken het vermogen van deze systemen om de normalisatie in nieuwe omgeving te handhaven en om effectiviteit te behouden in interacties op lange termijn,” schrijven onderzoekers. “De uitdaging wordt snel belangrijk omdat LLM-agenten omgaan met meer complexe, open-end taken, waar flexibele kennisorganisaties en continue aanpassing nodig zijn.”

A-MEM uitgelegd

A-MEM introduceert een agent geheugenarchitectuur die volgens onderzoekers autonoom en flexibel geheugenbeheer mogelijk maakt voor LLM-agenten.

Elke keer dat een LLM-agent interageert met zijn omgeving, hetzij een “gestructureerde geheugennotities” produceert door de apparatuur of uitwisseling van berichten te bereiken met gebruikers die zowel duidelijke informatie als metadata vastleggen, zoals tijd, relevante details, relevante zoekwoorden en gekoppelde herinneringen. Sommige details worden gegenereerd door LLM omdat het de interactie onderzoekt en semantische componenten creëert.

Zodra een geheugen is gemaakt, wordt een encodermodel gebruikt om de inbeddingswaarde van al zijn componenten te berekenen. De combinatie van door LLM gegenereerde cementische componenten en insluiting biedt een hulpmiddel voor efficiënt herstel door middel van menselijke verwijzing en gelijkheidsonderzoek.

Constructie van geheugen in de loop van de tijd

Een van de interessante componenten van de A-MEM-structuur is een mechanisme voor het toevoegen van verschillende geheugennotities zonder vooraf bepaalde regels. Voor elke nieuwe geheugennoot identificeert A-MEM de dichtstbijzijnde herinneringen op basis van de gelijkenis van hun inbeddingswaarden. De LLM analyseert vervolgens de gehele inhoud van herstelde kandidaten, die het meest geschikt zijn om degenen te kiezen die het meest geschikt zijn om te linken naar een nieuw geheugen.

“Door het gebruik van insluiting-gebaseerd herstel als een eerste filter te gebruiken, maken we een efficiënte schaalbaarheid mogelijk door cementische relevantie te handhaven”, schrijven onderzoekers. “A-MEM kan ook mogelijke verbindingen identificeren, zelfs in grote geheugencollecties zonder vergelijking. Nog belangrijker is dat LLM-manuele analyse het fijne begrip van relaties mogelijk maakt die verder gaan dan een eenvoudig-vergelijkbare matrix. ,,

Na het maken van een link voor nieuw geheugen, werkt A-MEM bij het herstellen van herinneringen op basis van de tekstinformatie en de relatie met nieuw geheugen. Naarmate er in de loop van de tijd meer herinneringen worden toegevoegd, verfijnt dit proces de kennisstructuren van het systeem, waardoor patronen en concepten in hoge orde in herinneringen worden ontdekt.

In elke interactie gebruikt de A-MEM referentie-inconceiveerbare geheugenherstel om agenten relevante historische informatie te bieden. Gegeven een nieuwe prompt, berekent de A-MEM eerst zijn inbeddingswaarde met vergelijkbare mechanismen die worden gebruikt voor geheugennotities. Het systeem gebruikt deze inbedding om de meest relevante herinneringen uit de geheugenwinkel te reconstrueren en het oorspronkelijke signaal te vergroten met relevante informatie die de agent helpt beter te begrijpen en te reageren op de huidige interactie.

“De herstelde referentie verrijkt het logische proces van de agent door de huidige interactie te combineren met de eerdere ervaringen en kennis die in het geheugensysteem is opgeslagen”, schrijven onderzoekers.

Één me in actie

Onderzoekers testten A-MEM LocomoEen dataset van zeer lange gesprekken verspreidde zich over verschillende sessies. Locomo bevat uitdagende taken zoals multi-hopvragen die vereisen dat het synthetiseren van informatie in veel chatsessies en argumenten wordt beweerd die het begrijpen van tijdgerelateerde informatie vereist. Dataset bevat ook kennisvragen die relevante informatie moeten integreren uit interactie met externe kennis.

Experimenten suggereren dat A-MEM andere baseline agentische geheugentechnieken verbetert bij de meeste functies, vooral wanneer open source-modellen modellen gebruiken. In het bijzonder zeggen onderzoekers dat een MEM betere prestaties heeft bereikt bij het verminderen van schattingen, bij het beantwoorden van vragen tot 10x minder tokens bij het beantwoorden van vragen.

Effectief geheugenbeheer wordt een belangrijke vereiste omdat LLM -agenten zijn geïntegreerd in complexe enterprise -workflows in verschillende domeinen en subcistams. A-Mem-Ji Code is Beschikbaar op GitHub -En van vele contouren stelt ondernemingen in staat om geheugen-anhansed LLM-agenten te produceren.



Bronlink

Related Articles

Back to top button