Šī rokasgrāmata ilustrēs ķēžu ielādes procesu no LangChain Hub.
Kā pievienot atmiņas stāvokli ķēdē, izmantojot LangChain?
Atmiņas stāvokli var izmantot, lai inicializētu ķēdes, jo tas var attiekties uz neseno ķēdēs saglabāto vērtību, kas tiks izmantota, atgriežot izvadi. Lai uzzinātu atmiņas stāvokļa pievienošanas procesu ķēdēs, izmantojot LangChain sistēmu, vienkārši izlasiet šo vienkāršo rokasgrāmatu:
1. darbība: instalējiet moduļus
Pirmkārt, ieejiet procesā, instalējot LangChain ietvaru ar tā atkarībām, izmantojot komandu pip:
pip instalēt langchain
Instalējiet arī OpenAI moduli, lai iegūtu tā bibliotēkas, kuras var izmantot, lai ķēdē pievienotu atmiņas stāvokli:
pip install openai
Iegūstiet API atslēgu no OpenAI konta un iekārtot vidi izmantojot to, lai ķēdes varētu tai piekļūt:
imports tu
imports getpass
tu . aptuveni [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API atslēga:' )
Šis solis ir svarīgs, lai kods darbotos pareizi.
2. darbība. Importējiet bibliotēkas
Pēc vides iestatīšanas vienkārši importējiet bibliotēkas, lai pievienotu atmiņas stāvokli, piemēram, LLMChain, ConversationBufferMemory un daudzas citas:
no langchain. ķēdes imports Sarunu ķēdeno langchain. atmiņa imports ConversationBufferMemory
no langchain. tērzēšanas_modeļi imports ChatOpenAI
no langchain. ķēdes . llm imports LLMChain
no langchain. uzvednes imports PromptTemplate
3. darbība: ķēžu veidošana
Tagad vienkārši izveidojiet ķēdes LLM, izmantojot OpenAI() metodi un uzvednes veidni, izmantojot vaicājumu, lai izsauktu ķēdi:
tērzēšana = ChatOpenAI ( temperatūra = 0 )prompt_template = 'Uzrakstiet {style} joku'
llm_chain = LLMChain ( llm = tērzēšana , pamudināt = PromptTemplate. from_template ( prompt_template ) )
llm_chain ( ievades = { 'stils' : 'kukurūzs' } )
Modelis ir parādījis izvadi, izmantojot LLM modeli, kā parādīts tālāk esošajā ekrānuzņēmumā:
4. darbība. Atmiņas stāvokļa pievienošana
Šeit mēs pievienosim ķēdes atmiņas stāvokli, izmantojot ConversationBufferMemory() metodi, un palaidīsim ķēdi, lai iegūtu 3 krāsas no varavīksnes:
saruna = Sarunu ķēde (llm = tērzēšana ,
atmiņa = ConversationBufferMemory ( )
)
saruna. palaist ( 'īsi piešķiriet 3 krāsas varavīksnē' )
Modelis ir attēlojis tikai trīs varavīksnes krāsas, un konteksts tiek saglabāts ķēdes atmiņā:
Šeit mēs palaižam ķēdi ar neskaidru komandu kā ' citi 4? ”, tāpēc pats modelis iegūst kontekstu no atmiņas un parāda atlikušās varavīksnes krāsas:
saruna. palaist ( 'citi 4?' )Modelis ir izdarījis tieši to, jo saprata kontekstu un atgrieza atlikušās četras krāsas no varavīksnes komplekta:
Tas viss attiecas uz iekraušanas ķēdēm no LangChain Hub.
Secinājums
Lai pievienotu atmiņu ķēdēs, izmantojot LangChain sistēmu, vienkārši instalējiet moduļus, lai iestatītu vidi LLM veidošanai. Pēc tam importējiet bibliotēkas, kas nepieciešamas, lai izveidotu ķēdes LLM, un pēc tam pievienojiet tam atmiņas stāvokli. Pēc atmiņas stāvokļa pievienošanas ķēdei vienkārši dodiet ķēdei komandu, lai iegūtu izvadi, un pēc tam dodiet citu komandu iepriekšējās komandas kontekstā, lai iegūtu pareizo atbildi. Šajā ziņojumā ir aprakstīts atmiņas stāvokļa pievienošanas process ķēdēs, izmantojot LangChain sistēmu.