Hvordan tilføjes hukommelsestilstand i kæden ved hjælp af LangChain?

Hvordan Tilfojes Hukommelsestilstand I Kaeden Ved Hjaelp Af Langchain



LangChain giver udviklere mulighed for at bygge chatmodeller, der kan føre en samtale med mennesker ved hjælp af naturlige sprog. For at have en effektiv samtale skal modellen have en hukommelse om, hvor konteksten for samtalen bliver gemt. LangChain-modellerne kan gemme chatbeskederne som observationer, så output kan være inden for konteksten af ​​samtalen hele tiden

Denne guide vil illustrere processen med at indlæse kæder fra LangChain Hub.

Hvordan tilføjes hukommelsestilstand i kæden ved hjælp af LangChain?

Hukommelsestilstand kan bruges til at initialisere kæderne, da det kan referere til den seneste værdi, der er gemt i kæderne, som vil blive brugt, mens outputtet returneres. For at lære processen med at tilføje en hukommelsestilstand i kæder ved hjælp af LangChain frameworket, skal du blot gennemgå denne nemme vejledning:







Trin 1: Installer moduler

Kom først ind i processen ved at installere LangChain-rammeværket med dets afhængigheder ved hjælp af pip-kommandoen:



pip installer langkæde



Installer også OpenAI-modulet for at få dets biblioteker, der kan bruges til at tilføje hukommelsestilstand i kæden:





pip installer openai

Hent API-nøglen fra OpenAI-kontoen og sætte miljøet op bruger det, så kæderne kan få adgang til det:



importere du

importere getpass

du . rundt regnet [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API-nøgle:' )

Dette trin er vigtigt for at koden fungerer korrekt.

Trin 2: Importer biblioteker

Efter opsætning af miljøet skal du blot importere bibliotekerne for at tilføje hukommelsestilstanden som LLMChain, ConversationBufferMemory og mange flere:

fra langkæde. kæder importere Samtalekæde

fra langkæde. hukommelse importere ConversationBufferMemory

fra langkæde. chat_modeller importere ChatOpenAI

fra langkæde. kæder . llm importere LLMChain

fra langkæde. prompter importere PromptTemplate

Trin 3: Bygge kæder

Nu skal du blot bygge kæder til LLM ved hjælp af OpenAI()-metoden og skabelonen for prompten ved at bruge forespørgslen til at kalde kæden:

snak = ChatOpenAI ( temperatur = 0 )

prompt_skabelon = 'Skriv en {stil} joke'

llm_kæde = LLMChain ( llm = snak , hurtig = PromptTemplate. fra_skabelon ( prompt_skabelon ) )

llm_kæde ( input = { 'stil' : 'liderlig' } )

Modellen har vist output ved hjælp af LLM-modellen som vist på skærmbilledet nedenfor:

Trin 4: Tilføjelse af hukommelsestilstand

Her vil vi tilføje hukommelsestilstanden i kæden ved hjælp af ConversationBufferMemory() metoden og køre kæden for at få 3 farver fra regnbuen:

samtale = Samtalekæde (

llm = snak ,

hukommelse = ConversationBufferMemory ( )

)

samtale. løb ( 'giv kort de 3 farver i regnbuen' )

Modellen har kun vist tre regnbuens farver, og konteksten er gemt i kædens hukommelse:

Her kører vi kæden med en tvetydig kommando som ' andre 4? ” så modellen selv får konteksten fra hukommelsen og viser de resterende regnbuefarver:

samtale. løb ( 'andre 4?' )

Modellen har gjort præcis det, da den forstod sammenhængen og returnerede de resterende fire farver fra regnbuesættet:

Det handler om læssekæder fra LangChain Hub.

Konklusion

For at tilføje hukommelsen i kæder ved hjælp af LangChain-rammeværket, skal du blot installere moduler for at opsætte miljøet til opbygning af LLM. Derefter skal du importere de nødvendige biblioteker for at bygge kæderne i LLM og derefter tilføje hukommelsestilstanden til den. Når du har tilføjet hukommelsestilstanden til kæden, skal du blot give en kommando til kæden for at få output og derefter give en anden kommando inden for konteksten af ​​den forrige for at få det korrekte svar. Dette indlæg har uddybet processen med at tilføje en hukommelsestilstand i kæder ved hjælp af LangChain-rammeværket.