Denne guide vil illustrere processen med at bruge et samtaleresumé i LangChain.
Hvordan bruger man samtaleoversigt i LangChain?
LangChain leverer biblioteker som ConversationSummaryMemory, der kan udtrække det komplette resumé af chatten eller samtalen. Det kan bruges til at få de vigtigste oplysninger om samtalen uden at skulle læse alle beskeder og tekster, der er tilgængelige i chatten.
For at lære processen med at bruge samtaleoversigten i LangChain skal du blot gå ind i følgende trin:
Trin 1: Installer moduler
Først skal du installere LangChain-rammeværket for at få dets afhængigheder eller biblioteker ved hjælp af følgende kode:
pip installer langkæde
Installer nu OpenAI-modulerne efter installation af LangChain ved hjælp af pip-kommandoen:
pip installer openai
Efter installation af modulerne skal du blot sætte miljøet op ved at bruge følgende kode efter at have hentet API-nøglen fra OpenAI-kontoen:
importere duimportere getpass
du . rundt regnet [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API-nøgle:' )
Trin 2: Brug af Samtaleoversigt
Kom ind i processen med at bruge samtaleoversigten ved at importere bibliotekerne fra LangChain:
fra langkæde. hukommelse importere Samtaleoversigt Hukommelse , ChatMessage Historyfra langkæde. llms importere OpenAI
Konfigurer modellens hukommelse ved hjælp af metoderne ConversationSummaryMemory() og OpenAI() og gem dataene i den:
hukommelse = Samtaleoversigt Hukommelse ( llm = OpenAI ( temperatur = 0 ) )hukommelse. gem_kontekst ( { 'input' : 'Hej' } , { 'produktion' : 'Hej' } )
Kør hukommelsen ved at kalde load_memory_variables() metode til at udtrække data fra hukommelsen:
hukommelse. load_memory_variables ( { } )
Brugeren kan også få dataene i form af samtale som hver enhed med en separat besked:
hukommelse = Samtaleoversigt Hukommelse ( llm = OpenAI ( temperatur = 0 ) , return_beskeder = Rigtigt )hukommelse. gem_kontekst ( { 'input' : 'Hej' } , { 'produktion' : 'Hej, hvordan har du det' } )
For at få beskeden om AI og mennesker separat, skal du udføre load_memory_variables() metoden:
hukommelse. load_memory_variables ( { } )
Gem oversigten af samtalen i hukommelsen, og kør derefter hukommelsen for at vise oversigten af chatten/samtalen på skærmen:
Beskeder = hukommelse. chat_hukommelse . Beskederforrige_oversigt = ''
hukommelse. forudsige_nyt_sammendrag ( Beskeder , forrige_oversigt )
Trin 3: Brug af samtaleoversigt med eksisterende beskeder
Brugeren kan også få et resumé af samtalen, der eksisterer uden for klassen, eller chatte ved hjælp af ChatMessageHistory()-meddelelsen. Disse beskeder kan føjes til hukommelsen, så den automatisk kan generere oversigten over hele samtalen:
historie = ChatMessage History ( )historie. add_user_message ( 'Hej' )
historie. add_ai_message ( 'Hej!' )
Byg modellen såsom LLM ved hjælp af OpenAI()-metoden til at udføre de eksisterende meddelelser i chat_hukommelse variabel:
hukommelse = Samtaleoversigt Hukommelse. fra_beskeder (llm = OpenAI ( temperatur = 0 ) ,
chat_hukommelse = historie ,
return_beskeder = Rigtigt
)
Udfør hukommelsen ved hjælp af bufferen for at få oversigten over de eksisterende meddelelser:
hukommelse. buffer
Udfør følgende kode for at bygge LLM ved at konfigurere bufferhukommelsen ved hjælp af chatbeskederne:
hukommelse = Samtaleoversigt Hukommelse (llm = OpenAI ( temperatur = 0 ) ,
buffer = '''Mennesket spørger spørgemaskinen om sig selv
Systemet svarer, at AI er bygget til det gode, da det kan hjælpe mennesker til at opnå deres potentiale''' ,
chat_hukommelse = historie ,
return_beskeder = Rigtigt
)
Trin 4: Brug af samtaleoversigt i kæde
Det næste trin forklarer processen med at bruge samtaleresuméet i en kæde ved hjælp af LLM:
fra langkæde. llms importere OpenAIfra langkæde. kæder importere Samtalekæde
llm = OpenAI ( temperatur = 0 )
samtale_med_oversigt = Samtalekæde (
llm = llm ,
hukommelse = Samtaleoversigt Hukommelse ( llm = OpenAI ( ) ) ,
ordrig = Rigtigt
)
samtale_med_oversigt. forudsige ( input = 'Hej, hvordan har du det' )
Her er vi gået i gang med at bygge kæder ved at starte samtalen med en høflig henvendelse:
Kom nu ind i samtalen ved at spørge lidt mere om det sidste output for at udvide det:
samtale_med_oversigt. forudsige ( input = 'Fortæl mig mere om det!' )Modellen har forklaret den sidste besked med en detaljeret introduktion til AI-teknologien eller chatbot:
Uddrag et interessepunkt fra det forrige output for at tage samtalen i en bestemt retning:
samtale_med_oversigt. forudsige ( input = 'Fantastisk, hvor godt er dette projekt?' )Her får vi detaljerede svar fra botten ved hjælp af samtaleoversigtshukommelsesbiblioteket:
Det handler om at bruge samtaleoversigten i LangChain.
Konklusion
For at bruge samtaleoversigtsmeddelelsen i LangChain skal du blot installere de moduler og rammer, der kræves for at opsætte miljøet. Når miljøet er indstillet, skal du importere Samtaleoversigt Hukommelse bibliotek til at bygge LLM'er ved hjælp af OpenAI()-metoden. Derefter skal du blot bruge samtaleoversigten til at udtrække det detaljerede output fra modellerne, som er opsummeringen af den forrige samtale. Denne vejledning har uddybet processen med at bruge samtaleoversigtshukommelse ved hjælp af LangChain-modulet.