Hvordan bruger man samtaleoversigt i LangChain?

Hvordan Bruger Man Samtaleoversigt I Langchain



LangChain er den ramme, der kan bruges til at bygge sprogmodeller ved hjælp af den enorme mængde af træningsdatasæt bygget i naturlige sprog. LangChain leverer de biblioteker og afhængigheder, der kan bruges til at bygge og administrere chatbots og sprogmodeller som LLM'er. Disse modeller betragtes for det meste som maskiner til at føre en samtale med eller udtrække nogle oplysninger baseret på prompter skrevet på menneskelignende sprog.

Denne guide vil illustrere processen med at bruge et samtaleresumé i LangChain.

Hvordan bruger man samtaleoversigt i LangChain?

LangChain leverer biblioteker som ConversationSummaryMemory, der kan udtrække det komplette resumé af chatten eller samtalen. Det kan bruges til at få de vigtigste oplysninger om samtalen uden at skulle læse alle beskeder og tekster, der er tilgængelige i chatten.







For at lære processen med at bruge samtaleoversigten i LangChain skal du blot gå ind i følgende trin:



Trin 1: Installer moduler

Først skal du installere LangChain-rammeværket for at få dets afhængigheder eller biblioteker ved hjælp af følgende kode:



pip installer langkæde





Installer nu OpenAI-modulerne efter installation af LangChain ved hjælp af pip-kommandoen:

pip installer openai



Efter installation af modulerne skal du blot sætte miljøet op ved at bruge følgende kode efter at have hentet API-nøglen fra OpenAI-kontoen:

importere du

importere getpass

du . rundt regnet [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API-nøgle:' )

Trin 2: Brug af Samtaleoversigt

Kom ind i processen med at bruge samtaleoversigten ved at importere bibliotekerne fra LangChain:

fra langkæde. hukommelse importere Samtaleoversigt Hukommelse , ChatMessage History

fra langkæde. llms importere OpenAI

Konfigurer modellens hukommelse ved hjælp af metoderne ConversationSummaryMemory() og OpenAI() og gem dataene i den:

hukommelse = Samtaleoversigt Hukommelse ( llm = OpenAI ( temperatur = 0 ) )

hukommelse. gem_kontekst ( { 'input' : 'Hej' } , { 'produktion' : 'Hej' } )

Kør hukommelsen ved at kalde load_memory_variables() metode til at udtrække data fra hukommelsen:

hukommelse. load_memory_variables ( { } )

Brugeren kan også få dataene i form af samtale som hver enhed med en separat besked:

hukommelse = Samtaleoversigt Hukommelse ( llm = OpenAI ( temperatur = 0 ) , return_beskeder = Rigtigt )

hukommelse. gem_kontekst ( { 'input' : 'Hej' } , { 'produktion' : 'Hej, hvordan har du det' } )

For at få beskeden om AI og mennesker separat, skal du udføre load_memory_variables() metoden:

hukommelse. load_memory_variables ( { } )

Gem oversigten af ​​samtalen i hukommelsen, og kør derefter hukommelsen for at vise oversigten af ​​chatten/samtalen på skærmen:

Beskeder = hukommelse. chat_hukommelse . Beskeder

forrige_oversigt = ''

hukommelse. forudsige_nyt_sammendrag ( Beskeder , forrige_oversigt )

Trin 3: Brug af samtaleoversigt med eksisterende beskeder

Brugeren kan også få et resumé af samtalen, der eksisterer uden for klassen, eller chatte ved hjælp af ChatMessageHistory()-meddelelsen. Disse beskeder kan føjes til hukommelsen, så den automatisk kan generere oversigten over hele samtalen:

historie = ChatMessage History ( )

historie. add_user_message ( 'Hej' )

historie. add_ai_message ( 'Hej!' )

Byg modellen såsom LLM ved hjælp af OpenAI()-metoden til at udføre de eksisterende meddelelser i chat_hukommelse variabel:

hukommelse = Samtaleoversigt Hukommelse. fra_beskeder (
llm = OpenAI ( temperatur = 0 ) ,
chat_hukommelse = historie ,
return_beskeder = Rigtigt
)

Udfør hukommelsen ved hjælp af bufferen for at få oversigten over de eksisterende meddelelser:

hukommelse. buffer

Udfør følgende kode for at bygge LLM ved at konfigurere bufferhukommelsen ved hjælp af chatbeskederne:

hukommelse = Samtaleoversigt Hukommelse (
llm = OpenAI ( temperatur = 0 ) ,
buffer = '''Mennesket spørger spørgemaskinen om sig selv
Systemet svarer, at AI er bygget til det gode, da det kan hjælpe mennesker til at opnå deres potentiale'''
,
chat_hukommelse = historie ,
return_beskeder = Rigtigt
)

Trin 4: Brug af samtaleoversigt i kæde

Det næste trin forklarer processen med at bruge samtaleresuméet i en kæde ved hjælp af LLM:

fra langkæde. llms importere OpenAI
fra langkæde. kæder importere Samtalekæde
llm = OpenAI ( temperatur = 0 )
samtale_med_oversigt = Samtalekæde (
llm = llm ,
hukommelse = Samtaleoversigt Hukommelse ( llm = OpenAI ( ) ) ,
ordrig = Rigtigt
)
samtale_med_oversigt. forudsige ( input = 'Hej, hvordan har du det' )

Her er vi gået i gang med at bygge kæder ved at starte samtalen med en høflig henvendelse:

Kom nu ind i samtalen ved at spørge lidt mere om det sidste output for at udvide det:

samtale_med_oversigt. forudsige ( input = 'Fortæl mig mere om det!' )

Modellen har forklaret den sidste besked med en detaljeret introduktion til AI-teknologien eller chatbot:

Uddrag et interessepunkt fra det forrige output for at tage samtalen i en bestemt retning:

samtale_med_oversigt. forudsige ( input = 'Fantastisk, hvor godt er dette projekt?' )

Her får vi detaljerede svar fra botten ved hjælp af samtaleoversigtshukommelsesbiblioteket:

Det handler om at bruge samtaleoversigten i LangChain.

Konklusion

For at bruge samtaleoversigtsmeddelelsen i LangChain skal du blot installere de moduler og rammer, der kræves for at opsætte miljøet. Når miljøet er indstillet, skal du importere Samtaleoversigt Hukommelse bibliotek til at bygge LLM'er ved hjælp af OpenAI()-metoden. Derefter skal du blot bruge samtaleoversigten til at udtrække det detaljerede output fra modellerne, som er opsummeringen af ​​den forrige samtale. Denne vejledning har uddybet processen med at bruge samtaleoversigtshukommelse ved hjælp af LangChain-modulet.