Kā pievienot atmiņas stāvokli ķēdē, izmantojot LangChain?

Ka Pievienot Atminas Stavokli Kede Izmantojot Langchain



LangChain ļauj izstrādātājiem izveidot tērzēšanas modeļus, kas var sarunāties ar cilvēkiem, izmantojot dabiskās valodas. Lai saruna būtu efektīva, modelim ir jāatceras, kur tiek saglabāts sarunas konteksts. LangChain modeļi var saglabāt tērzēšanas ziņojumus kā novērojumus, lai izvade visu laiku varētu būt sarunas kontekstā

Šī rokasgrāmata ilustrēs ķēžu ielādes procesu no LangChain Hub.

Kā pievienot atmiņas stāvokli ķēdē, izmantojot LangChain?

Atmiņas stāvokli var izmantot, lai inicializētu ķēdes, jo tas var attiekties uz neseno ķēdēs saglabāto vērtību, kas tiks izmantota, atgriežot izvadi. Lai uzzinātu atmiņas stāvokļa pievienošanas procesu ķēdēs, izmantojot LangChain sistēmu, vienkārši izlasiet šo vienkāršo rokasgrāmatu:







1. darbība: instalējiet moduļus

Pirmkārt, ieejiet procesā, instalējot LangChain ietvaru ar tā atkarībām, izmantojot komandu pip:



pip instalēt langchain



Instalējiet arī OpenAI moduli, lai iegūtu tā bibliotēkas, kuras var izmantot, lai ķēdē pievienotu atmiņas stāvokli:





pip install openai

Iegūstiet API atslēgu no OpenAI konta un iekārtot vidi izmantojot to, lai ķēdes varētu tai piekļūt:



imports tu

imports getpass

tu . aptuveni [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API atslēga:' )

Šis solis ir svarīgs, lai kods darbotos pareizi.

2. darbība. Importējiet bibliotēkas

Pēc vides iestatīšanas vienkārši importējiet bibliotēkas, lai pievienotu atmiņas stāvokli, piemēram, LLMChain, ConversationBufferMemory un daudzas citas:

no langchain. ķēdes imports Sarunu ķēde

no langchain. atmiņa imports ConversationBufferMemory

no langchain. tērzēšanas_modeļi imports ChatOpenAI

no langchain. ķēdes . llm imports LLMChain

no langchain. uzvednes imports PromptTemplate

3. darbība: ķēžu veidošana

Tagad vienkārši izveidojiet ķēdes LLM, izmantojot OpenAI() metodi un uzvednes veidni, izmantojot vaicājumu, lai izsauktu ķēdi:

tērzēšana = ChatOpenAI ( temperatūra = 0 )

prompt_template = 'Uzrakstiet {style} joku'

llm_chain = LLMChain ( llm = tērzēšana , pamudināt = PromptTemplate. from_template ( prompt_template ) )

llm_chain ( ievades = { 'stils' : 'kukurūzs' } )

Modelis ir parādījis izvadi, izmantojot LLM modeli, kā parādīts tālāk esošajā ekrānuzņēmumā:

4. darbība. Atmiņas stāvokļa pievienošana

Šeit mēs pievienosim ķēdes atmiņas stāvokli, izmantojot ConversationBufferMemory() metodi, un palaidīsim ķēdi, lai iegūtu 3 krāsas no varavīksnes:

saruna = Sarunu ķēde (

llm = tērzēšana ,

atmiņa = ConversationBufferMemory ( )

)

saruna. palaist ( 'īsi piešķiriet 3 krāsas varavīksnē' )

Modelis ir attēlojis tikai trīs varavīksnes krāsas, un konteksts tiek saglabāts ķēdes atmiņā:

Šeit mēs palaižam ķēdi ar neskaidru komandu kā ' citi 4? ”, tāpēc pats modelis iegūst kontekstu no atmiņas un parāda atlikušās varavīksnes krāsas:

saruna. palaist ( 'citi 4?' )

Modelis ir izdarījis tieši to, jo saprata kontekstu un atgrieza atlikušās četras krāsas no varavīksnes komplekta:

Tas viss attiecas uz iekraušanas ķēdēm no LangChain Hub.

Secinājums

Lai pievienotu atmiņu ķēdēs, izmantojot LangChain sistēmu, vienkārši instalējiet moduļus, lai iestatītu vidi LLM veidošanai. Pēc tam importējiet bibliotēkas, kas nepieciešamas, lai izveidotu ķēdes LLM, un pēc tam pievienojiet tam atmiņas stāvokli. Pēc atmiņas stāvokļa pievienošanas ķēdei vienkārši dodiet ķēdei komandu, lai iegūtu izvadi, un pēc tam dodiet citu komandu iepriekšējās komandas kontekstā, lai iegūtu pareizo atbildi. Šajā ziņojumā ir aprakstīts atmiņas stāvokļa pievienošanas process ķēdēs, izmantojot LangChain sistēmu.