Hvordan bygger man promptskabeloner i LangChain?

Hvordan Bygger Man Promptskabeloner I Langchain



LangChain er rammen, der indeholder flere afhængigheder og biblioteker, der kan bruges til at bygge store sprogmodeller. Disse modeller kan bruges til at interagere med mennesker, men først skal modellen lære at få/forstå prompten/spørgsmålet stillet af mennesket. Til det skal modellen trænes på promptskabelonerne, og så stiller brugeren spørgsmålet inden for den givne skabelon.

Denne guide vil illustrere processen med at bygge promptskabeloner i LangChain.







Hvordan bygger man promptskabeloner i LangChain?

For at bygge promptskabeloner i LangChain skal du blot gennemgå følgende guide med flere trin:



Trin 1: Installer moduler og opsætningsmiljø

Start processen med at bygge promptskabeloner i LangChain ved at installere LangChain frameworket:



pip installer langkæde





Installer nu OpenAI-moduler for at få adgang til dets biblioteker og indstil et miljø ved hjælp af det:

pip installer openai



Indstil OpenAI miljø ved at bruge OS-biblioteket til at få adgang til operativsystemet og give OpenAI API-nøglen:

import os
importere getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API-nøgle:')

Trin 2: Brug af promptskabelon

Efter installation af LangChain skal du blot importere PromptTemplate-biblioteket og bygge en skabelon til forespørgslen om en vittighed med nogle ekstra aspekter som variabler som adjektiv, indhold osv.:

fra langchain import PromptTemplate

prompt_template = PromptTemplate.from_template(
'Fortæl mig en {stil} joke om {tema}'
)
prompt_template.format(style='sjov', tema='kyllinger')

Prompten er blevet indstillet og givet til modellen med værdierne af variablen indsat i kommandoen:

Brugeren kan tilpasse promptskabelonen med en simpel forespørgsel, der beder om en joke:

fra langchain import PromptTemplate

prompt_template = PromptTemplate.from_template(
'Fortæl mig en vittighed'
)
prompt_skabelon.format()

Ovenstående metode er til en enkelt forespørgsel og svar, men nogle gange ønsker brugeren at interagere med modellen i form af en chat, og det næste afsnit forklarer dens format.

Trin 3: Brug af chatpromptskabelon

Dette afsnit forklarer skabelonen for en chatmodel, som er baseret på et samtalemønster som to mennesker, der interagerer med hinanden:

fra langchain.prompts importerer ChatPromptTemplate

template = ChatPromptTemplate.from_messages([
('system', 'AI chat-bot til at hjælpe brugeren. Du kaldes {navn}.')
('menneske', 'Hej, hvordan har du det'),
('ai', 'Hvordan gør du'),
('menneske', '{user_input}'),
])

beskeder = template.format_messages(
,
user_input='Hvad skal jeg kalde dig'
)

Efter at have indstillet skabelonstrukturen, skal du blot skrive nogle linjer i teksten for at fortælle modellen, hvad der forventes af den, og bruge llm()-funktionen til at give en prompt:

fra langchain.prompts importerer ChatPromptTemplate
fra langchain.prompts.chat importer SystemMessage, HumanMessagePromptTemplate

template = ChatPromptTemplate.from_messages(
[
Systemmeddelelse(
indhold=(
'Du er her for at hjælpe og hjælpe brugeren med at omskrive brugerteksten mere effektivt'
)
),
HumanMessagePromptTemplate.from_template('{text}'),
]

)

fra langchain.chat_models importerer ChatOpenAI

llm = ChatOpenAI()
llm(template.format_messages(text='jeg kan ikke lide at spise velsmagende ting'))

SystemMessage()-metoden indeholder indholdet af svaret for den forespørgsel, der bruges i LLM:

Det handler om at bygge promptskabeloner i LangChain.

Konklusion

For at bygge en promptskabelon i LangChain skal du blot installere LangChain- og OpenAI-moduler for at opsætte et miljø ved hjælp af OpenAI API-nøglen. Derefter skal du oprette en promptskabelon til en enkelt prompt som at bede om en joke eller et enkelt spørgsmål om hvad som helst. En anden metode er at tilpasse en skabelon til en chatmodel baseret på processen med interaktion mellem to forskellige mennesker. Dette indlæg har illustreret processen med at bygge en promptskabelon i LangChain.