Kā lietot sarunu kopsavilkuma buferi programmā LangChain?

Ka Lietot Sarunu Kopsavilkuma Buferi Programma Langchain



LangChain ir sistēma ar visām atkarībām un bibliotēkām, lai izveidotu modeļus, kas var saprast datu kopas dabiskās valodās. Šie modeļi var arī ģenerēt tekstu dabiskās valodās vai iegūt līdzīgākos datus, pamatojoties uz lietotāja ievadītajiem datiem. Tērzēšanas roboti vai LLM tiek izmantoti, lai izveidotu sarunas ar cilvēkiem un iegūtu sarunas kopsavilkumu, izmantojot visus ziņojumus.

Šī rokasgrāmata ilustrēs sarunu kopsavilkuma bufera izmantošanas procesu programmā LangChain.

Kā lietot sarunu kopsavilkuma buferi programmā LangChain?

Saruna var ietvert vairākus ziņojumus, kas ir kā mijiedarbība starp cilvēku un mašīnu, un buferis var saglabāt jaunākos ziņojumus. The ConversationSummaryBufferMemory bibliotēka tiek izmantota, lai apvienotu abus jēdzienus, piemēram, jaunāko ziņojumu glabāšanu un to kopsavilkuma izvilkšanu.







Lai uzzinātu sarunu kopsavilkuma bufera lietošanas procesu programmā LangChain, vienkārši izpildiet šo rokasgrāmatu:



1. darbība: instalējiet moduļus

Vispirms instalējiet LangChain moduli, izmantojot komandu pip, lai iegūtu vajadzīgās bibliotēkas:



pip instalēt langchain





Instalējiet tikttoken marķieri, ko var izmantot, lai sadalītu teksta dokumentus mazos gabalos:

pip instalēt tiktoken



Pēc tam instalējiet OpenAI moduļus, kurus var izmantot, lai izveidotu valodu modeļus, piemēram, LLM un ķēdes:

pip install openai

Tagad iekārtot vidi iegūstot API atslēgu no OpenAI konta un izmantojot to modelī:

imports tu
imports getpass

tu . aptuveni [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API atslēga:' )

2. darbība. Sarunu kopsavilkuma bufera izmantošana

Sāciet sarunu kopsavilkuma bufera izmantošanas procesu, importējot bibliotēkas, lai izveidotu LLM, izmantojot OpenAI() metodi:

no langchain. atmiņa imports ConversationSummaryBufferMemory

no langchain. llms imports OpenAI

llm = OpenAI ( )

Veidojiet atmiņu, izmantojot ConversationSummaryBufferMemory() metodi, un pēc tam saglabājiet sarunu atmiņā:

atmiņa = ConversationSummaryBufferMemory ( llm = llm , max_token_limit = 10 )

atmiņa. save_context ( { 'ievade' : 'Sveiki' } , { 'izeja' : 'Kā tev iet' } )

atmiņa. save_context ( { 'ievade' : 'Es esmu labs, kā ar tevi' } , { 'izeja' : 'nedaudz' } )

Tagad izpildiet atmiņu, izsaucot load_memory_variables () metode ziņojumu izvilkšanai no atmiņas:

atmiņa. load_memory_variables ( { } )

Tagad izmantojiet sarunas bufera kopsavilkumu, lai konfigurētu buferi, ierobežojot buferī glabājamo ziņojumu skaitu. Pēc tam izņemiet šo buferī saglabāto ziņojumu kopsavilkumu un pēc tam saglabājiet sarunu atmiņā:

atmiņa = ConversationSummaryBufferMemory (

llm = llm , max_token_limit = 10 , return_messages = Taisnība

)

atmiņa. save_context ( { 'ievade' : 'Sveiki' } , { 'izeja' : 'Kā tev iet' } )

atmiņa. save_context ( { 'ievade' : 'Es esmu labs, kā ar tevi' } , { 'izeja' : 'nedaudz' } )

Iegūstiet buferatmiņā saglabāto iepriekšējo ziņojumu kopsavilkumu, izmantojot šādu kodu:

ziņas = atmiņa. tērzēšanas_atmiņa . ziņas

Iepriekšējais_kopsavilkums = ''

atmiņa. prognozēt_jauns_kopsavilkums ( ziņas , Iepriekšējais_kopsavilkums )

3. darbība. Sarunu kopsavilkuma bufera izmantošana ķēdē

Izveidojiet ķēdes, izmantojot Sarunu ķēde() metode, kas satur vērtību buferatmiņai, lai tajā saglabātu ziņojumu:

no langchain. ķēdes imports Sarunu ķēde

saruna_ar_kopsavilkumu = Sarunu ķēde (
llm = llm ,
atmiņa = ConversationSummaryBufferMemory ( llm = OpenAI ( ) , max_token_limit = 40 ) ,
runīgs = Taisnība ,
)
saruna_ar_kopsavilkumu. prognozēt ( ievade = 'Čau, kā iet?' )

Lai iegūtu sarunas kopsavilkumu, ievadiet ievadi teksta veidā, izmantojot prognozēšanas () metodi:

saruna_ar_kopsavilkumu. prognozēt ( ievade = 'Tikko strādāju pie NLP projekta' )

Izmantojiet modeļa izvadi un pievienojiet vairāk datu, izmantojot ziņojumus buferatmiņā, un parādiet tā kopsavilkumu:

saruna_ar_kopsavilkumu. prognozēt ( ievade = 'Jā, tā ir! Es strādāju pie LLM projektēšanas' )

Kopsavilkums ir tāds, ka rezultāts būs viegli saprotams un cilvēkiem draudzīgāks, un tas ir vairāk piemērots tērzēšanas robotiem:

saruna_ar_kopsavilkumu. prognozēt (

ievade = 'Es gribu izmantot LangChain! Vai esat par to dzirdējuši?'

)

Tas ir viss par sarunu kopsavilkuma bufera izmantošanu programmā LangChain.

Secinājums

Lai izmantotu sarunu kopsavilkuma buferatmiņu programmā LangChain, vienkārši instalējiet moduļus vai ietvarus, lai iegūtu nepieciešamās bibliotēkas. Kad bibliotēkas ir importētas, izveidojiet LLM vai tērzēšanas robotus, lai izmantotu funkciju ConverstaionSummaryBufferMemory(), lai iegūtu sarunas kopsavilkumu. Buferatmiņa tiek izmantota, lai ierobežotu atmiņā saglabāto ziņojumu skaitu, ko izmantot kopsavilkuma izvilkšanai. Šajā ziņojumā ir aprakstīts sarunu kopsavilkuma buferatmiņas izmantošanas process programmā LangChain.