Sådan bruges LangChain LLMChain-funktionen i Python

Sadan Bruges Langchain Llmchain Funktionen I Python



LangChain har et væld af moduler til at skabe sprogmodelapplikationer. Ansøgninger kan gøres mere komplicerede ved at kombinere moduler, eller de kan gøres enklere ved at bruge et enkelt modul. At kalde en LLM på et bestemt input er den mest essentielle LangChain-komponent.

Kæder fungerer ikke kun for et enkelt LLM-opkald; de er samlinger af opkald, enten til en LLM eller et andet hjælpeprogram. End-to-end kæder til udbredte applikationer leveres af LangChain sammen med en standard kæde API og talrige værktøjsintegrationer.

Fleksibiliteten og evnen til at linke flere elementer til en enkelt enhed kan være nyttig, når vi vil designe en kæde, der accepterer brugerinput, sætter den op ved hjælp af en PromptTemplate og derefter leverer det genererede resultat til en LLM.







Denne artikel hjælper dig med at forstå brugen af ​​en LangChain LLMchain-funktion i Python.



Eksempel: Sådan bruges LLMchain-funktionen i LangChain

Vi talte om, hvad kæder er. Nu vil vi se en praktisk demonstration af disse kæder, som er implementeret i et Python-script. I dette eksempel bruger vi den mest basale LangChain-kæde, som er LLMchain. Den indeholder en PromptTemplate og en LLM, og kæder dem sammen for at generere et output.



For at begynde at implementere konceptet skal vi installere nogle nødvendige biblioteker, som ikke er inkluderet i Python-standardbiblioteket. De biblioteker, vi skal installere, er LangChain og OpenAI. Vi installerer LangChain-biblioteket, fordi vi skal bruge dets LLMchain-modul samt PromptTemplate. OpenAI-biblioteket lader os bruge OpenAIs modeller til at forudsige output, dvs. GPT-3.





For at installere LangChain-biblioteket skal du køre følgende kommando på terminalen:

$ pip installer langchain

Installer OpenAI-biblioteket med følgende kommando:



$ pip installer openai

Når installationerne er færdige, kan vi begynde at arbejde på hovedprojektet.

fra langkæde. prompter importere PromptTemplate

fra langkæde. llms importere OpenAI

importere du

du . rundt regnet [ 'OPENAI_API_KEY' ] = 'sk-DIN API NØGLE'

Hovedprojektet begynder med at importere de nødvendige moduler. Så vi importerer først PromptTemplate fra 'langchain.prompts' biblioteket. Derefter importerer vi OpenAI fra 'langchain.llms' biblioteket. Dernæst importerer vi 'os' for at indstille miljøvariablen.

Til at begynde med satte vi OpenAI API-nøglen som miljøvariabel. Miljøvariablen er en variabel, der består af et navn og en værdi og er indstillet på vores operativsystem. 'os.environ' er et objekt, der bruges til at kortlægge miljøvariablerne. Så vi kalder 'os.environ'. Det navn, vi angiver for API-nøglen, er OPENAI_API_KEY. Vi tildeler derefter API-nøglen som dens værdi. API-nøglen er unik for hver bruger. Så når du øver dette kodescript, skal du skrive din hemmelige API-nøgle.

llm = OpenAI ( temperatur = 0,9 )

hurtig = PromptTemplate (

input_variables = [ 'Produkter' ] ,

skabelon = 'Hvad ville et brand hedde, der sælger {produkter}?' ,

)

Nu hvor nøglen er indstillet som miljøvariabel, initialiserer vi en wrapper. Indstil temperaturen for OpenAI GPT-modellerne. Temperaturen er en egenskab, der hjælper os med at bestemme, hvor uforudsigelig responsen vil være. Jo højere temperaturværdien er, desto mere uregelmæssig er svarene. Vi indstiller temperaturværdien til 0,9 her. Dermed får vi de mest tilfældige resultater.

Derefter initialiserer vi en PromptTemplate-klasse. Når vi bruger LLM, genererer vi en prompt fra input, der er taget fra brugeren, og sender den derefter til LLM i stedet for at sende input direkte til LLM, som kræver hård kodning (en prompt er et input, som vi tog fra bruger, og som den definerede AI-model skal skabe et svar på). Så vi initialiserer PromptTemplate. Derefter definerer vi input_variablen inden for dens krøllede seler som 'Produkter', og skabelonteksten er 'Hvad ville et brand hedde, der sælger {produkter}?' Brugerinput fortæller, hvad brandet gør. Derefter formaterer den prompten baseret på disse oplysninger.

fra langkæde. kæder importere LLMChain

kæde = LLMChain ( llm = llm , hurtig = hurtig )

Nu hvor vores PromptTemplate er formateret, er næste trin at lave en LLMchain. Importer først LLMchain-modulet fra 'langchain.chain'-biblioteket. Derefter opretter vi en kæde ved at kalde funktionen LLMchain() som tager brugerens input og formaterer prompten med den. Til sidst sender den svaret til LLM. Så det forbinder PromptTemplate og LLM.

Print ( kæde. løb ( 'Kunstforsyninger' ) )

For at udføre kæden kalder vi metoden chain.run() og giver brugerinput som parameteren, der er defineret som 'Art Supplies'. Derefter videregiver vi denne metode til Python print()-funktionen for at vise det forudsagte resultat på Python-konsollen.

AI-modellen læser prompten og laver et svar baseret på det.

Da vi bad om at navngive et mærke, der sælger kunstartikler, kan det forudsagte navn af AI-modellen ses i følgende øjebliksbillede:

Dette eksempel viser os LLMchaining, når en enkelt inputvariabel er angivet. Dette er også muligt, når du bruger flere variable. Til det skal vi simpelthen oprette en ordbog over variabler for at indtaste dem helt. Lad os se, hvordan dette virker:

fra langkæde. prompter importere PromptTemplate

fra langkæde. llms importere OpenAI

importere du

du . rundt regnet [ 'OPENAI_API_KEY' ] = 'sk-Din-API-KEY'

llm = ÅbenAI(temperatur=0,9)

prompt = PromptSkabelon(

input_variables=['
Mærke ', ' Produkt '],

skabelon='
Hvad skulle navnet være { Mærke } der sælger { Produkt } ? ',

)

fra langchain.chains importerer LLMChain

kæde = LLMChain(llm=llm, prompt=prompt)

print(kæde.run({

'Mærke': '
Art forsyninger ',

'Produkt': '
farver '

}))

Koden går det samme som i det foregående eksempel, bortset fra at vi skal sende to variable i promptskabelonklassen. Så opret en ordbog over input_variables. De lange parenteser repræsenterer en ordbog. Her har vi to variable - 'Mærke' og 'Produkt' - som er adskilt af et komma. Nu er skabelonteksten, som vi leverer, 'Hvad ville være navnet på {Mærke}, der sælger {Produkt}?' AI-modellen forudsiger således et navn, der fokuserer på disse to inputvariable.

Derefter opretter vi en LLMchain, som formaterer brugerinputtet med prompten om at sende svaret til LLM. For at køre denne kæde bruger vi chain.run()-metoden og videregiver ordbogen over variabler med brugerinput som 'Brand': 'Art supplies' og 'Product' som 'Colors'. Derefter videregiver vi denne metode til Python print()-funktionen for at vise det opnåede svar.

Outputbilledet viser det forventede resultat:

Konklusion

Kæder er byggestenene i LangChain. Denne artikel gennemgår konceptet med at bruge LLMchain i LangChain. Vi lavede en introduktion til LLMchain og skildrede behovet for at anvende dem i Python-projektet. Derefter udførte vi en praktisk illustration, som demonstrerer implementeringen af ​​LLMchain ved at forbinde PromptTemplate og LLM. Du kan oprette disse kæder med en enkelt inputvariabel såvel som flere brugerleverede variabler. De genererede svar fra GPT-modellen leveres også.