Denne guide vil illustrere processen med at bruge en samtale-token-buffer i LangChain.
Hvordan bruger man en samtaletokenbuffer i LangChain?
Det ConversationTokenBufferMemory bibliotek kan importeres fra LangChain frameworket for at gemme de seneste beskeder i bufferhukommelsen. Tokens kan konfigureres til at begrænse antallet af meddelelser gemt i bufferen, og de tidligere meddelelser vil automatisk blive tømt.
For at lære processen med at bruge samtaletokenbufferen i LangChain skal du bruge følgende vejledning:
Trin 1: Installer moduler
Først skal du installere LangChain-rammeværket, der indeholder alle de nødvendige moduler ved hjælp af pip-kommandoen:
pip installer langkæde
Installer nu OpenAI-modulet for at bygge LLM'erne og kæderne ved hjælp af OpenAI()-metoden:
pip installer openai
Når du har installeret modulerne, skal du blot bruge OpenAI's API-nøgle til sætte miljøet op ved hjælp af os og getpass biblioteker:
importere duimportere getpass
du . rundt regnet [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API-nøgle:' )
Trin 2: Brug af Conversation Token Buffer Memory
Byg LLM'erne ved hjælp af OpenAI()-metoden efter import af ConversationTokenBufferMemory bibliotek fra LangChain frameworket:
fra langkæde. hukommelse importere ConversationTokenBufferMemoryfra langkæde. llms importere OpenAI
llm = OpenAI ( )
Konfigurer hukommelsen til at indstille token, den tømmer de gamle beskeder og gemmer dem i bufferhukommelsen. Gem derefter beskederne fra samtalen og få de seneste for at bruge dem som kontekst:
hukommelse = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )hukommelse. gem_kontekst ( { 'input' : 'Hej' } , { 'produktion' : 'Hvordan har du det' } )
hukommelse. gem_kontekst ( { 'input' : 'Jeg er god hvad med dig' } , { 'produktion' : 'ikke meget' } )
Udfør hukommelsen for at få dataene gemt i bufferhukommelsen ved hjælp af load_memory_variables() metoden:
hukommelse. load_memory_variables ( { } )
Trin 3: Brug af Conversation Token Buffer Memory i en kæde
Byg kæderne ved at konfigurere ConversationChain() metode med flere argumenter for at bruge samtaletoken-bufferhukommelsen:
fra langkæde. kæder importere Samtalekædesamtale_med_oversigt = Samtalekæde (
llm = llm ,
hukommelse = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
ordrig = Rigtigt ,
)
samtale_med_oversigt. forudsige ( input = 'Hej hvad så?' )
Sæt nu samtalen i gang ved at stille spørgsmål ved hjælp af meddelelserne skrevet i naturligt sprog:
samtale_med_oversigt. forudsige ( input = 'Arbejder bare på NLP-projektet' )
Få output fra de data, der er gemt i bufferhukommelsen ved at bruge antallet af tokens:
samtale_med_oversigt. forudsige ( input = 'Bare arbejder på at designe LLM'er' )
Bufferen bliver ved med at opdatere med hver ny input, da de tidligere meddelelser tømmes regelmæssigt:
samtale_med_oversigt. forudsige (input = 'LLM bruger LangChain! Har du hørt om det'
)
Det handler om at bruge samtaletokenbufferen i LangChain.
Konklusion
For at bruge samtaletokenbufferen i LangChain skal du blot installere modulerne for at opsætte miljøet ved hjælp af API-nøglen fra OpenAI-kontoen. Importer derefter ConversationTokenBufferMemory-biblioteket ved hjælp af LangChain-modulet for at gemme samtalen i bufferen. Bufferhukommelsen kan bruges i en kæde til at tømme de ældre beskeder med hver ny besked i chatten. Dette indlæg har uddybet brugen af samtaletoken-bufferhukommelsen i LangChain.