Denne guide vil illustrere processen med at indlæse kæder fra LangChain Hub.
Hvordan tilføjes hukommelsestilstand i kæden ved hjælp af LangChain?
Hukommelsestilstand kan bruges til at initialisere kæderne, da det kan referere til den seneste værdi, der er gemt i kæderne, som vil blive brugt, mens outputtet returneres. For at lære processen med at tilføje en hukommelsestilstand i kæder ved hjælp af LangChain frameworket, skal du blot gennemgå denne nemme vejledning:
Trin 1: Installer moduler
Kom først ind i processen ved at installere LangChain-rammeværket med dets afhængigheder ved hjælp af pip-kommandoen:
pip installer langkæde
Installer også OpenAI-modulet for at få dets biblioteker, der kan bruges til at tilføje hukommelsestilstand i kæden:
pip installer openai
Hent API-nøglen fra OpenAI-kontoen og sætte miljøet op bruger det, så kæderne kan få adgang til det:
importere du
importere getpass
du . rundt regnet [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API-nøgle:' )
Dette trin er vigtigt for at koden fungerer korrekt.
Trin 2: Importer biblioteker
Efter opsætning af miljøet skal du blot importere bibliotekerne for at tilføje hukommelsestilstanden som LLMChain, ConversationBufferMemory og mange flere:
fra langkæde. kæder importere Samtalekædefra langkæde. hukommelse importere ConversationBufferMemory
fra langkæde. chat_modeller importere ChatOpenAI
fra langkæde. kæder . llm importere LLMChain
fra langkæde. prompter importere PromptTemplate
Trin 3: Bygge kæder
Nu skal du blot bygge kæder til LLM ved hjælp af OpenAI()-metoden og skabelonen for prompten ved at bruge forespørgslen til at kalde kæden:
snak = ChatOpenAI ( temperatur = 0 )prompt_skabelon = 'Skriv en {stil} joke'
llm_kæde = LLMChain ( llm = snak , hurtig = PromptTemplate. fra_skabelon ( prompt_skabelon ) )
llm_kæde ( input = { 'stil' : 'liderlig' } )
Modellen har vist output ved hjælp af LLM-modellen som vist på skærmbilledet nedenfor:
Trin 4: Tilføjelse af hukommelsestilstand
Her vil vi tilføje hukommelsestilstanden i kæden ved hjælp af ConversationBufferMemory() metoden og køre kæden for at få 3 farver fra regnbuen:
samtale = Samtalekæde (llm = snak ,
hukommelse = ConversationBufferMemory ( )
)
samtale. løb ( 'giv kort de 3 farver i regnbuen' )
Modellen har kun vist tre regnbuens farver, og konteksten er gemt i kædens hukommelse:
Her kører vi kæden med en tvetydig kommando som ' andre 4? ” så modellen selv får konteksten fra hukommelsen og viser de resterende regnbuefarver:
samtale. løb ( 'andre 4?' )Modellen har gjort præcis det, da den forstod sammenhængen og returnerede de resterende fire farver fra regnbuesættet:
Det handler om læssekæder fra LangChain Hub.
Konklusion
For at tilføje hukommelsen i kæder ved hjælp af LangChain-rammeværket, skal du blot installere moduler for at opsætte miljøet til opbygning af LLM. Derefter skal du importere de nødvendige biblioteker for at bygge kæderne i LLM og derefter tilføje hukommelsestilstanden til den. Når du har tilføjet hukommelsestilstanden til kæden, skal du blot give en kommando til kæden for at få output og derefter give en anden kommando inden for konteksten af den forrige for at få det korrekte svar. Dette indlæg har uddybet processen med at tilføje en hukommelsestilstand i kæder ved hjælp af LangChain-rammeværket.