LangChain er rammen med applikationen i Natural Language Processing eller NLP domænet til at bygge modeller i menneskelignende sprog. Disse modeller kan bruges af mennesker til at få svar fra modellen eller have en samtale som ethvert andet menneske. LangChain bruges til at bygge kæder ved at gemme hver sætning i samtalen og interagere yderligere ved at bruge den som kontekst.
Dette indlæg vil illustrere processen med at bygge LLM og LLMChain i LangChain.
Hvordan bygger man LLM og LLMChain i LangChain?
For at bygge LLM og LLMChain i LangChain skal du blot gennemgå de anførte trin:
Trin 1: Installer moduler
For det første skal du installere LangChain-modulet for at bruge dets biblioteker til at bygge LLM'er og LLMChain:
pip installer langkæde
Et andet modul, der kræves for at bygge LLM'er, er OpenAI, og det kan installeres ved hjælp af pip-kommandoen:
pip installer openai
Trin 2: Konfigurer et miljø
Konfigurer et miljø ved hjælp af OpenAI API-nøglen fra dets miljø:
import osimport getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API-nøgle:')
Eksempel 1: Byg LLM'er ved hjælp af LangChain
Det første eksempel er at bygge de store sprogmodeller ved hjælp af LangChain ved at importere OpenAI- og ChatOpenAI-biblioteker og bruge llm()-funktionen:
Trin 1: Brug af LLM Chat-modellen
Importer OpenAI- og ChatOpenAI-moduler for at bygge en simpel LLM ved hjælp af OpenAI-miljø fra LangChain:
fra langchain.chat_models importerer ChatOpenAIfra langchain.llms importerer OpenAI
llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('hej!')
Modellen har svaret med 'hej'-svaret som vist på følgende skærmbillede nedenfor:
Predict()-funktionen fra chat_modellen bruges til at få svaret eller svaret fra modellen:
chat_model.predict('hej!')Outputtet viser, at modellen er til rådighed for brugeren, der stiller spørgsmål:
Trin 2: Brug af tekstforespørgsel
Brugeren kan også få svar fra modellen ved at give hele sætningen i tekstvariablen:
text = 'Hvad ville være et godt firmanavn for en virksomhed, der laver farverige sokker?'llm.predict(tekst)
Modellen har vist flere farvekombinationer til farverige sokker:
Få det detaljerede svar fra modellen ved at bruge funktionen forudsige() med farvekombinationerne til sokkerne:
chat_model.predict(tekst)
Trin 3: Brug af tekst med indhold
Brugeren kan få svaret med en lille forklaring om svaret:
fra langchain.schema importerer HumanMessagetext = 'Hvad ville være en god titel for en virksomhed, der laver farverigt tøj'
beskeder = [HumanMessage(content=text)]
llm.predict_messages(messages)
Modellen har genereret titlen for virksomheden, som er 'Creative Clothing Co':
Forudsig beskeden for at få svaret på virksomhedens titel med dens forklaring også:
chat_model.predict_messages(messages)
Eksempel 2: Byg LLMChain ved hjælp af LangChain
Det andet eksempel på vores guide bygger LLMChain for at få modellen i formatet menneskelig interaktion til at kombinere alle trinene fra det foregående eksempel:
fra langchain.chat_models importerer ChatOpenAIfra langchain.prompts.chat importer ChatPromptTemplate
fra langchain.prompts.chat importer ChatPromptTemplate
fra langchain.prompts.chat import SystemMessagePromptTemplatefra langchain.prompts.chat import HumanMessagePromptTemplate
fra langchain.chains importerer LLMChain
fra langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):
def parse(selv, tekst: str):
returner text.strip().split(', ')
Byg skabelonen til chatmodellen ved at give en detaljeret forklaring af dens funktion og byg derefter LLMChain()-funktionen, der indeholder LLM-, outputparser- og chat_prompt-bibliotekerne:
template = '''Du skal hjælpe med at generere kommaseparerede listerHent kategorien fra brugeren, og generer en kommasepareret liste med fem objekter
Den eneste ting skal være objektet fra kategorien'''
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = '{tekst}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Konfigurer LLMChain med strukturen af forespørgslen
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
kæde = LLMChain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run('farver')
Modellen har givet svaret med listen over farver, da kategorien kun bør indeholde 5 objekter angivet i prompten:
Det handler om at bygge LLM og LLMChain i LangChain.
Konklusion
For at bygge LLM og LLMChain ved hjælp af LangChain skal du blot installere LangChain- og OpenAI-moduler for at opsætte et miljø ved hjælp af dens API-nøgle. Byg derefter LLM-modellen ved hjælp af chat_model efter oprettelse af promptskabelonen for en enkelt forespørgsel til en komplet chat. LLMChain bruges til at bygge kæder af alle observationerne i samtalen og bruge dem som konteksten for interaktionen. Dette indlæg illustrerer processen med at bygge LLM og LLMChain ved hjælp af LangChain frameworket.