Kā lietot sarunu kopsavilkumu programmā LangChain?

Ka Lietot Sarunu Kopsavilkumu Programma Langchain



LangChain ir ietvars, ko var izmantot, lai izveidotu valodu modeļus, izmantojot masveida apmācību datu kopas, kas izveidotas dabiskās valodās. LangChain nodrošina bibliotēkas un atkarības, ko var izmantot, lai izveidotu un pārvaldītu tērzēšanas robotus un valodu modeļus, piemēram, LLM. Šie modeļi lielākoties tiek uzskatīti par mašīnām, lai sarunātos ar vai iegūtu kādu informāciju, pamatojoties uz uzvednēm, kas rakstītas cilvēkiem līdzīgās valodās.

Šī rokasgrāmata ilustrēs sarunas kopsavilkuma izmantošanas procesu LangChain.

Kā lietot sarunu kopsavilkumu programmā LangChain?

LangChain nodrošina tādas bibliotēkas kā ConversationSummaryMemory, kas var iegūt pilnīgu tērzēšanas vai sarunas kopsavilkumu. To var izmantot, lai iegūtu galveno sarunas informāciju, nelasot visas tērzēšanā pieejamās ziņas un tekstu.







Lai uzzinātu sarunu kopsavilkuma lietošanas procesu programmā LangChain, vienkārši veiciet šādas darbības:



1. darbība: instalējiet moduļus

Vispirms instalējiet LangChain sistēmu, lai iegūtu tās atkarības vai bibliotēkas, izmantojot šādu kodu:



pip instalēt langchain





Tagad instalējiet OpenAI moduļus pēc LangChain instalēšanas, izmantojot komandu pip:

pip install openai



Pēc moduļu uzstādīšanas vienkārši iekārtot vidi izmantojot šo kodu pēc API atslēgas iegūšanas no OpenAI konta:

imports tu

imports getpass

tu . aptuveni [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API atslēga:' )

2. darbība. Sarunas kopsavilkuma izmantošana

Sāciet izmantot sarunas kopsavilkumu, importējot bibliotēkas no LangChain:

no langchain. atmiņa imports ConversationSummaryMemory , ChatMessageHistory

no langchain. llms imports OpenAI

Konfigurējiet modeļa atmiņu, izmantojot ConversationSummaryMemory() un OpenAI() metodes, un saglabājiet tajā datus:

atmiņa = ConversationSummaryMemory ( llm = OpenAI ( temperatūra = 0 ) )

atmiņa. save_context ( { 'ievade' : 'Sveiki' } , { 'izeja' : 'Sveiki' } )

Palaidiet atmiņu, zvanot uz load_memory_variables() metode datu izvilkšanai no atmiņas:

atmiņa. load_memory_variables ( { } )

Lietotājs var arī iegūt datus sarunas veidā, piemēram, katra entītija ar atsevišķu ziņojumu:

atmiņa = ConversationSummaryMemory ( llm = OpenAI ( temperatūra = 0 ) , return_messages = Taisnība )

atmiņa. save_context ( { 'ievade' : 'Sveiki' } , { 'izeja' : 'Čau, kā tev iet' } )

Lai iegūtu AI un cilvēku ziņojumu atsevišķi, izpildiet metodi load_memory_variables():

atmiņa. load_memory_variables ( { } )

Saglabājiet sarunas kopsavilkumu atmiņā un pēc tam izpildiet atmiņu, lai ekrānā parādītu tērzēšanas/sarunas kopsavilkumu:

ziņas = atmiņa. tērzēšanas_atmiņa . ziņas

Iepriekšējais_kopsavilkums = ''

atmiņa. prognozēt_jauns_kopsavilkums ( ziņas , Iepriekšējais_kopsavilkums )

3. darbība. Sarunas kopsavilkuma izmantošana ar esošajiem ziņojumiem

Lietotājs var iegūt arī ārpus klases vai tērzēšanas sarunas kopsavilkumu, izmantojot ziņojumu ChatMessageHistory(). Šos ziņojumus var pievienot atmiņai, lai tā varētu automātiski ģenerēt visas sarunas kopsavilkumu:

vēsture = ChatMessageHistory ( )

vēsture. add_user_message ( 'Sveiki' )

vēsture. add_ai_message ( 'Sveiki!' )

Izveidojiet modeli, piemēram, LLM, izmantojot OpenAI() metodi, lai izpildītu esošos ziņojumus tērzēšanas_atmiņa mainīgais:

atmiņa = ConversationSummaryMemory. from_Messages (
llm = OpenAI ( temperatūra = 0 ) ,
tērzēšanas_atmiņa = vēsture ,
return_messages = Taisnība
)

Izpildiet atmiņu, izmantojot buferi, lai iegūtu esošo ziņojumu kopsavilkumu:

atmiņa. buferis

Izpildiet šo kodu, lai izveidotu LLM, konfigurējot buferatmiņu, izmantojot tērzēšanas ziņojumus:

atmiņa = ConversationSummaryMemory (
llm = OpenAI ( temperatūra = 0 ) ,
buferis = '''Cilvēks jautā jautājumu mašīnai par sevi
Sistēma atbild, ka mākslīgais intelekts ir veidots uz labu, jo tas var palīdzēt cilvēkiem sasniegt savu potenciālu'''
,
tērzēšanas_atmiņa = vēsture ,
return_messages = Taisnība
)

4. darbība. Sarunas kopsavilkuma izmantošana ķēdē

Nākamajā darbībā ir izskaidrots sarunu kopsavilkuma izmantošanas process ķēdē, izmantojot LLM:

no langchain. llms imports OpenAI
no langchain. ķēdes imports Sarunu ķēde
llm = OpenAI ( temperatūra = 0 )
saruna_ar_kopsavilkumu = Sarunu ķēde (
llm = llm ,
atmiņa = ConversationSummaryMemory ( llm = OpenAI ( ) ) ,
runīgs = Taisnība
)
saruna_ar_kopsavilkumu. prognozēt ( ievade = 'Sveiks, kā tev iet' )

Šeit mēs esam sākuši veidot ķēdes, uzsākot sarunu ar pieklājīgu aptauju:

Tagad ieejiet sarunā, pajautājot mazliet vairāk par pēdējo rezultātu, lai to paplašinātu:

saruna_ar_kopsavilkumu. prognozēt ( ievade = — Pastāsti man par to vairāk! )

Modelis ir izskaidrojis pēdējo ziņojumu ar detalizētu ievadu AI tehnoloģijā vai tērzēšanas robotā:

Izņemiet interesējošo punktu no iepriekšējās izvades, lai sarunu virzītu noteiktā virzienā:

saruna_ar_kopsavilkumu. prognozēt ( ievade = 'Pārsteidzoši Cik labs ir šis projekts?' )

Šeit mēs saņemam detalizētas atbildes no robota, izmantojot sarunu kopsavilkuma atmiņas bibliotēku:

Tas ir viss par sarunas kopsavilkuma izmantošanu programmā LangChain.

Secinājums

Lai izmantotu sarunas kopsavilkuma ziņojumu programmā LangChain, vienkārši instalējiet moduļus un ietvarus, kas nepieciešami vides iestatīšanai. Kad vide ir iestatīta, importējiet ConversationSummaryMemory bibliotēka, lai izveidotu LLM, izmantojot OpenAI() metodi. Pēc tam vienkārši izmantojiet sarunas kopsavilkumu, lai no modeļiem iegūtu detalizētu rezultātu, kas ir iepriekšējās sarunas kopsavilkums. Šajā rokasgrāmatā ir detalizēti aprakstīts sarunu kopsavilkuma atmiņas izmantošanas process, izmantojot LangChain moduli.