Hvordan bygger man LLM og LLMChain i LangChain?

Hvordan Bygger Man Llm Og Llmchain I Langchain



LangChain er rammen med applikationen i Natural Language Processing eller NLP domænet til at bygge modeller i menneskelignende sprog. Disse modeller kan bruges af mennesker til at få svar fra modellen eller have en samtale som ethvert andet menneske. LangChain bruges til at bygge kæder ved at gemme hver sætning i samtalen og interagere yderligere ved at bruge den som kontekst.

Dette indlæg vil illustrere processen med at bygge LLM og LLMChain i LangChain.







Hvordan bygger man LLM og LLMChain i LangChain?

For at bygge LLM og LLMChain i LangChain skal du blot gennemgå de anførte trin:



Trin 1: Installer moduler

For det første skal du installere LangChain-modulet for at bruge dets biblioteker til at bygge LLM'er og LLMChain:



pip installer langkæde





Et andet modul, der kræves for at bygge LLM'er, er OpenAI, og det kan installeres ved hjælp af pip-kommandoen:

pip installer openai



Trin 2: Konfigurer et miljø

Konfigurer et miljø ved hjælp af OpenAI API-nøglen fra dets miljø:

import os
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API-nøgle:')

Eksempel 1: Byg LLM'er ved hjælp af LangChain

Det første eksempel er at bygge de store sprogmodeller ved hjælp af LangChain ved at importere OpenAI- og ChatOpenAI-biblioteker og bruge llm()-funktionen:

Trin 1: Brug af LLM Chat-modellen

Importer OpenAI- og ChatOpenAI-moduler for at bygge en simpel LLM ved hjælp af OpenAI-miljø fra LangChain:

fra langchain.chat_models importerer ChatOpenAI

fra langchain.llms importerer OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('hej!')

Modellen har svaret med 'hej'-svaret som vist på følgende skærmbillede nedenfor:

Predict()-funktionen fra chat_modellen bruges til at få svaret eller svaret fra modellen:

chat_model.predict('hej!')

Outputtet viser, at modellen er til rådighed for brugeren, der stiller spørgsmål:

Trin 2: Brug af tekstforespørgsel

Brugeren kan også få svar fra modellen ved at give hele sætningen i tekstvariablen:

text = 'Hvad ville være et godt firmanavn for en virksomhed, der laver farverige sokker?'

llm.predict(tekst)

Modellen har vist flere farvekombinationer til farverige sokker:

Få det detaljerede svar fra modellen ved at bruge funktionen forudsige() med farvekombinationerne til sokkerne:

chat_model.predict(tekst)

Trin 3: Brug af tekst med indhold

Brugeren kan få svaret med en lille forklaring om svaret:

fra langchain.schema importerer HumanMessage

text = 'Hvad ville være en god titel for en virksomhed, der laver farverigt tøj'
beskeder = [HumanMessage(content=text)]

llm.predict_messages(messages)

Modellen har genereret titlen for virksomheden, som er 'Creative Clothing Co':

Forudsig beskeden for at få svaret på virksomhedens titel med dens forklaring også:

chat_model.predict_messages(messages)

Eksempel 2: Byg LLMChain ved hjælp af LangChain

Det andet eksempel på vores guide bygger LLMChain for at få modellen i formatet menneskelig interaktion til at kombinere alle trinene fra det foregående eksempel:

fra langchain.chat_models importerer ChatOpenAI
fra langchain.prompts.chat importer ChatPromptTemplate
fra langchain.prompts.chat importer ChatPromptTemplate
fra langchain.prompts.chat import  SystemMessagePromptTemplatefra langchain.prompts.chat import HumanMessagePromptTemplate
fra langchain.chains importerer LLMChain
fra langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def parse(selv, tekst: str):
returner text.strip().split(', ')

Byg skabelonen til chatmodellen ved at give en detaljeret forklaring af dens funktion og byg derefter LLMChain()-funktionen, der indeholder LLM-, outputparser- og chat_prompt-bibliotekerne:

template = '''Du skal hjælpe med at generere kommaseparerede lister
Hent kategorien fra brugeren, og generer en kommasepareret liste med fem objekter
Den eneste ting skal være objektet fra kategorien'''
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = '{tekst}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Konfigurer LLMChain med strukturen af ​​forespørgslen
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
kæde = LLMChain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run('farver')

Modellen har givet svaret med listen over farver, da kategorien kun bør indeholde 5 objekter angivet i prompten:

Det handler om at bygge LLM og LLMChain i LangChain.

Konklusion

For at bygge LLM og LLMChain ved hjælp af LangChain skal du blot installere LangChain- og OpenAI-moduler for at opsætte et miljø ved hjælp af dens API-nøgle. Byg derefter LLM-modellen ved hjælp af chat_model efter oprettelse af promptskabelonen for en enkelt forespørgsel til en komplet chat. LLMChain bruges til at bygge kæder af alle observationerne i samtalen og bruge dem som konteksten for interaktionen. Dette indlæg illustrerer processen med at bygge LLM og LLMChain ved hjælp af LangChain frameworket.