Kā lietot LangChain LLMChain funkciju Python

Ka Lietot Langchain Llmchain Funkciju Python



LangChain ir daudz moduļu valodu modeļu lietojumprogrammu izveidei. Lietojumprogrammas var padarīt sarežģītākas, apvienojot moduļus, vai arī tās var padarīt vienkāršākas, izmantojot vienu moduli. LLM izsaukšana, izmantojot noteiktu ievadi, ir vissvarīgākais LangChain komponents.

Ķēdes nedarbojas tikai vienam LLM zvanam; tās ir zvanu kolekcijas LLM vai citai utilītai. LangChain nodrošina visaptverošas ķēdes plaši izmantotām lietojumprogrammām kopā ar standarta ķēdes API un daudzām rīku integrācijām.

Elastība un iespēja saistīt vairākus elementus vienā entītijā var būt noderīga, ja vēlamies izveidot ķēdi, kas pieņem lietotāja ievadi, iestata to, izmantojot PromptTemplate, un pēc tam piegādā ģenerēto rezultātu LLM.







Šis raksts palīdz izprast LangChain LLMchain funkcijas izmantošanu programmā Python.



Piemērs: kā lietot LLMchain funkciju programmā LangChain

Mēs runājām par to, kas ir ķēdes. Tagad mēs redzēsim praktisku šo ķēžu demonstrāciju, kas ir ieviestas Python skriptā. Šajā piemērā mēs izmantojam visvienkāršāko LangChain ķēdi, kas ir LLMchain. Tas satur PromptTemplate un LLM, un savieno tos kopā, lai ģenerētu izvadi.



Lai sāktu koncepcijas ieviešanu, mums ir jāinstalē dažas nepieciešamās bibliotēkas, kas nav iekļautas Python standarta bibliotēkā. Bibliotēkas, kas mums jāinstalē, ir LangChain un OpenAI. Mēs instalējam LangChain bibliotēku, jo mums ir jāizmanto tās LLMchain modulis, kā arī PromptTemplate. OpenAI bibliotēka ļauj mums izmantot OpenAI modeļus, lai prognozētu rezultātus, t.i., GPT-3.





Lai instalētu LangChain bibliotēku, terminālī palaidiet šādu komandu:

$ pip instalējiet langchain

Instalējiet OpenAI bibliotēku ar šādu komandu:



$ pip instalēt openai

Kad instalācijas ir pabeigtas, mēs varam sākt strādāt pie galvenā projekta.

no langchain. uzvednēm imports PromptTemplate

no langchain. llms imports OpenAI

imports tu

tu . aptuveni [ 'OPENAI_API_KEY' ] = 'sk-YOUR API KEY'

Galvenais projekts sākas ar nepieciešamo moduļu importēšanu. Tātad vispirms mēs importējam PromptTemplate no bibliotēkas “langchain.prompts”. Pēc tam mēs importējam OpenAI no “langchain.llms” bibliotēkas. Pēc tam mēs importējam “os”, lai iestatītu vides mainīgo.

Sākotnēji mēs iestatījām OpenAI API atslēgu kā vides mainīgo. Vides mainīgais ir mainīgais, kas sastāv no nosaukuma un vērtības un ir iestatīts mūsu operētājsistēmā. “os.environ” ir objekts, ko izmanto, lai kartētu vides mainīgos. Tātad, mēs saucam par 'os.environ'. Nosaukums, ko mēs iestatījām API atslēgai, ir OPENAI_API_KEY. Pēc tam mēs piešķiram API atslēgu kā tās vērtību. API atslēga ir unikāla katram lietotājam. Tāpēc, praktizējot šo koda skriptu, ierakstiet savu slepeno API atslēgu.

llm = OpenAI ( temperatūra = 0.9 )

pamudināt = PromptTemplate (

ievades_mainīgie = [ 'produkti' ] ,

veidne = 'Kāds nosaukums būtu zīmols, kas pārdod {products}?' ,

)

Tagad, kad atslēga ir iestatīta kā vides mainīgais, mēs inicializējam iesaiņojumu. Iestatiet temperatūru OpenAI GPT modeļiem. Temperatūra ir raksturlielums, kas palīdz mums noteikt, cik neparedzama būs reakcija. Jo augstāka temperatūras vērtība, jo nepastāvīgākas ir atbildes. Šeit mēs iestatījām temperatūras vērtību uz 0,9. Tādējādi mēs iegūstam nejaušākos rezultātus.

Pēc tam mēs inicializējam PromptTemplate klasi. Kad mēs izmantojam LLM, mēs ģenerējam uzvedni no ievades, kas tiek ņemta no lietotāja, un pēc tam nododam to LLM, nevis nosūtām ievadi tieši uz LLM, kam nepieciešama cietā kodēšana (uzvedne ir ievade, ko mēs paņēmām no lietotājs un uz kuru definētajam AI modelim ir jāveido atbilde). Tātad, mēs inicializējam PromptTemplate. Pēc tam iekavās mēs definējam ievades_mainīgo kā “Produkti”, un veidnes teksts ir “Kāds nosaukums būtu zīmols, kas pārdod {products}?” Lietotāja ievade norāda, ko zīmols dara. Pēc tam tas formatē uzvedni, pamatojoties uz šo informāciju.

no langchain. ķēdes imports LLMChain

ķēde = LLMChain ( llm = llm , pamudināt = pamudināt )

Tagad, kad mūsu PromptTemplate ir formatēta, nākamais solis ir izveidot LLMchain. Vispirms importējiet moduli LLMchain no bibliotēkas “langchain.chain”. Pēc tam mēs izveidojam ķēdi, izsaucot funkciju LLMchain (), kas ņem lietotāja ievadi un formatē uzvedni ar to. Visbeidzot, tā nosūta atbildi LLM. Tātad, tas savieno PromptTemplate un LLM.

drukāt ( ķēde. palaist ( 'Mākslas piederumi' ) )

Lai izpildītu ķēdi, mēs izsaucam metodi chain.run() un sniedzam lietotāja ievadi kā parametru, kas ir definēts kā “Mākslas piederumi”. Pēc tam mēs nododam šo metodi Python print() funkcijai, lai Python konsolē parādītu paredzamo rezultātu.

AI modelis nolasa uzvedni un, pamatojoties uz to, sniedz atbildi.

Tā kā mēs lūdzām nosaukt zīmolu, kas pārdod mākslas piederumus, AI modeļa paredzamais nosaukums ir redzams šādā momentuzņēmumā:

Šis piemērs parāda LLMchaining, kad tiek nodrošināts viens ievades mainīgais. Tas ir iespējams arī tad, ja tiek izmantoti vairāki mainīgie. Lai to izdarītu, mums vienkārši ir jāizveido mainīgo lielumu vārdnīca, lai tos ievadītu pavisam. Apskatīsim, kā tas darbojas:

no langchain. uzvednēm imports PromptTemplate

no langchain. llms imports OpenAI

imports tu

tu . aptuveni [ 'OPENAI_API_KEY' ] = “sk — jūsu API ATSLĒGA”

llm = OpenAI (temperatūra = 0,9)

prompt = PromptTemplate(

input_variables=['
Zīmols ',' Produkts '],

template='
Kāds būtu nosaukums { Zīmols } kas pārdod { Produkts } ? ',

)

no langchain.chains importēt LLMChain

ķēde = LLMChain(llm=llm, prompt=prompt)

print(chain.run({

'Zīmols': '
Mākslas piederumi ',

'Produkts': '
krāsas '

}))

Kods ir tāds pats kā iepriekšējā piemērā, izņemot to, ka mums ir jānodod divi mainīgie uzvednes veidņu klasē. Tātad, izveidojiet ievades_mainīgo vārdnīcu. Garās iekavas apzīmē vārdnīcu. Šeit ir divi mainīgie — “Zīmols” un “Produkts”, kas ir atdalīti ar komatu. Tagad mūsu piedāvātais veidnes teksts ir “Kā sauc to {zīmols}, kas pārdod {Produktu}?” Tādējādi AI modelis paredz nosaukumu, kas koncentrējas uz šiem diviem ievades mainīgajiem.

Pēc tam mēs izveidojam LLM ķēdi, kas formatē lietotāja ievadi ar uzvedni, lai nosūtītu atbildi LLM. Lai palaistu šo ķēdi, mēs izmantojam metodi chain.run() un nododam mainīgo vārdnīcu, lietotājam ievadot kā “Zīmols”: “Mākslas piederumi” un “Produkts” kā “Krāsas”. Pēc tam mēs nododam šo metodi Python print() funkcijai, lai parādītu iegūto atbildi.

Izvades attēls parāda paredzamo rezultātu:

Secinājums

Ķēdes ir LangChain pamatelementi. Šajā rakstā ir aprakstīta LLMchain izmantošanas koncepcija programmā LangChain. Mēs veicām ievadu LLMchain un attēlojām nepieciešamību tos izmantot Python projektā. Pēc tam mēs veicām praktisku ilustrāciju, kas parāda LLMchain ieviešanu, savienojot PromptTemplate un LLM. Šīs ķēdes varat izveidot ar vienu ievades mainīgo, kā arī vairākiem lietotāja nodrošinātiem mainīgajiem. Tiek nodrošinātas arī ģenerētās atbildes no GPT modeļa.