Hvordan bruger man en samtaletokenbuffer i LangChain?

Hvordan Bruger Man En Samtaletokenbuffer I Langchain



LangChain gør det muligt for udviklerne at bygge modeller ved hjælp af maskinlæring eller deep learning, som kan træne modeller ved hjælp af datasættene. Disse modeller kan få forskellige mønstre fra dataene eller forstå datasættets form og dets sprog for at udtrække information. Store sprogmodeller eller LLM'er kan konfigureres eller designes ved hjælp af LangChain-rammerne, som kan forstå og generere tekst på naturlige sprog.

Denne guide vil illustrere processen med at bruge en samtale-token-buffer i LangChain.

Hvordan bruger man en samtaletokenbuffer i LangChain?

Det ConversationTokenBufferMemory bibliotek kan importeres fra LangChain frameworket for at gemme de seneste beskeder i bufferhukommelsen. Tokens kan konfigureres til at begrænse antallet af meddelelser gemt i bufferen, og de tidligere meddelelser vil automatisk blive tømt.







For at lære processen med at bruge samtaletokenbufferen i LangChain skal du bruge følgende vejledning:



Trin 1: Installer moduler

Først skal du installere LangChain-rammeværket, der indeholder alle de nødvendige moduler ved hjælp af pip-kommandoen:



pip installer langkæde





Installer nu OpenAI-modulet for at bygge LLM'erne og kæderne ved hjælp af OpenAI()-metoden:

pip installer openai



Når du har installeret modulerne, skal du blot bruge OpenAI's API-nøgle til sætte miljøet op ved hjælp af os og getpass biblioteker:

importere du

importere getpass

du . rundt regnet [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API-nøgle:' )

Trin 2: Brug af Conversation Token Buffer Memory

Byg LLM'erne ved hjælp af OpenAI()-metoden efter import af ConversationTokenBufferMemory bibliotek fra LangChain frameworket:

fra langkæde. hukommelse importere ConversationTokenBufferMemory

fra langkæde. llms importere OpenAI

llm = OpenAI ( )

Konfigurer hukommelsen til at indstille token, den tømmer de gamle beskeder og gemmer dem i bufferhukommelsen. Gem derefter beskederne fra samtalen og få de seneste for at bruge dem som kontekst:

hukommelse = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )

hukommelse. gem_kontekst ( { 'input' : 'Hej' } , { 'produktion' : 'Hvordan har du det' } )

hukommelse. gem_kontekst ( { 'input' : 'Jeg er god hvad med dig' } , { 'produktion' : 'ikke meget' } )

Udfør hukommelsen for at få dataene gemt i bufferhukommelsen ved hjælp af load_memory_variables() metoden:

hukommelse. load_memory_variables ( { } )

Trin 3: Brug af Conversation Token Buffer Memory i en kæde

Byg kæderne ved at konfigurere ConversationChain() metode med flere argumenter for at bruge samtaletoken-bufferhukommelsen:

fra langkæde. kæder importere Samtalekæde

samtale_med_oversigt = Samtalekæde (
llm = llm ,
hukommelse = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
ordrig = Rigtigt ,
)
samtale_med_oversigt. forudsige ( input = 'Hej hvad så?' )

Sæt nu samtalen i gang ved at stille spørgsmål ved hjælp af meddelelserne skrevet i naturligt sprog:

samtale_med_oversigt. forudsige ( input = 'Arbejder bare på NLP-projektet' )

Få output fra de data, der er gemt i bufferhukommelsen ved at bruge antallet af tokens:

samtale_med_oversigt. forudsige ( input = 'Bare arbejder på at designe LLM'er' )

Bufferen bliver ved med at opdatere med hver ny input, da de tidligere meddelelser tømmes regelmæssigt:

samtale_med_oversigt. forudsige (

input = 'LLM bruger LangChain! Har du hørt om det'

)

Det handler om at bruge samtaletokenbufferen i LangChain.

Konklusion

For at bruge samtaletokenbufferen i LangChain skal du blot installere modulerne for at opsætte miljøet ved hjælp af API-nøglen fra OpenAI-kontoen. Importer derefter ConversationTokenBufferMemory-biblioteket ved hjælp af LangChain-modulet for at gemme samtalen i bufferen. Bufferhukommelsen kan bruges i en kæde til at tømme de ældre beskeder med hver ny besked i chatten. Dette indlæg har uddybet brugen af ​​samtaletoken-bufferhukommelsen i LangChain.