Kā izmantot atmiņu LLMChain, izmantojot LangChain?

Ka Izmantot Atminu Llmchain Izmantojot Langchain



LangChain ir ietvars, ko var izmantot, lai importētu bibliotēkas un atkarības lielu valodu modeļu vai LLM veidošanai. Valodas modeļi izmanto atmiņu, lai saglabātu datus vai vēsturi datu bāzē kā novērojumu, lai iegūtu sarunas kontekstu. Atmiņa ir konfigurēta, lai saglabātu jaunākos ziņojumus, lai modelis varētu saprast lietotāja sniegtos neskaidros norādījumus.

Šajā emuārā ir izskaidrots atmiņas izmantošanas process LLMChain, izmantojot LangChain.







Kā izmantot atmiņu LLMChain, izmantojot LangChain?

Lai pievienotu atmiņu un izmantotu to LLMChain, izmantojot LangChain, ConversationBufferMemory bibliotēku var izmantot, importējot to no LangChain.



Lai uzzinātu par atmiņas izmantošanas procesu LLMChain, izmantojot LangChain, skatiet šo rokasgrāmatu:



1. darbība: instalējiet moduļus

Vispirms sāciet atmiņas izmantošanas procesu, instalējot LangChain, izmantojot komandu pip:





pip instalēt langchain

Instalējiet OpenAI moduļus, lai iegūtu tās atkarības vai bibliotēkas, lai izveidotu LLM vai tērzēšanas modeļus:



pip install openai

Iestatiet vidi OpenAI, izmantojot tās API atslēgu, importējot OS un getpass bibliotēkas:

importēt mūs
importēt getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API atslēga:')

2. darbība. Bibliotēku importēšana

Pēc vides iestatīšanas vienkārši importējiet tādas bibliotēkas kā ConversationBufferMemory no LangChain:

no langchain.chains importēt LLMChain
no langchain.llms importēt OpenAI

no langchain.memory importēšanas ConversationBufferMemory

no langchain.prompts importēt PromptTemplate

Konfigurējiet uzvednes veidni, izmantojot tādus mainīgos kā “input”, lai iegūtu vaicājumu no lietotāja, un “hist” datu glabāšanai buferatmiņā:

template = '''Jūs esat modele, kas tērzēja ar cilvēku

{hist}
Cilvēks: {input}
Tērzēšanas robots: '''

prompt = PromptTemplate(
input_variables=['hist', 'input'], template=veidne
)
atmiņa = Sarunu buferatmiņa(atmiņas_atslēga = 'hist')

3. darbība: LLM konfigurēšana

Kad vaicājuma veidne ir izveidota, konfigurējiet LLMChain() metodi, izmantojot vairākus parametrus:

llm = OpenAI()
llm_chain = LLMChain(
llm=llm,
uzvedne=prompt,
verbose=Tiesa,
atmiņa = atmiņa,
)

4. darbība: LLMChain pārbaude

Pēc tam pārbaudiet LLMChain, izmantojot ievades mainīgo, lai saņemtu uzvedni no lietotāja teksta formā:

llm_chain.predict(input='Sveiks, mans draugs')

Izmantojiet citu ievadi, lai iegūtu atmiņā saglabātos datus izvades iegūšanai, izmantojot kontekstu:

llm_chain.predict(input='Labi! man iet labi - kā jums klājas')

5. darbība. Atmiņas pievienošana tērzēšanas modelim

Atmiņu var pievienot uz tērzēšanas modeli balstītai LLMChain, importējot bibliotēkas:

no langchain.chat_models importējiet ChatOpenAI
no langchain.schema importēšanas SystemMessage
no langchain.prompts importēt ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Konfigurējiet uzvednes veidni, izmantojot ConversationBufferMemory(), izmantojot dažādus mainīgos, lai iestatītu lietotāja ievadi:

prompt = ChatPromptTemplate.from_messages([
SystemMessage(content='Jūs esat modelis, kurš sarunājas ar cilvēku'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

atmiņa = Sarunu buferatmiņa (atmiņas_atslēga = 'hist', return_messages = True)

6. darbība: LLMChain konfigurēšana

Iestatiet LLMChain() metodi, lai konfigurētu modeli, izmantojot dažādus argumentus un parametrus:

llm = ChatOpenAI()

chat_llm_chain = LLMChain(
llm=llm,
uzvedne=prompt,
verbose=Tiesa,
atmiņa = atmiņa,
)

7. darbība: LLMChain pārbaude

Beigās vienkārši pārbaudiet LLMChain, izmantojot ievadi, lai modelis varētu ģenerēt tekstu atbilstoši uzvednei:

chat_llm_chain.predict(input='Sveiks, mans draugs')

Modelis ir saglabājis iepriekšējo sarunu atmiņā un parāda to pirms vaicājuma faktiskās izvades:

llm_chain.predict(input='Labi! man iet labi - kā jums klājas')

Tas viss attiecas uz atmiņas izmantošanu LLMChain, izmantojot LangChain.

Secinājums

Lai izmantotu LLMChain atmiņu, izmantojot LangChain sistēmu, vienkārši instalējiet moduļus, lai iestatītu vidi, lai iegūtu atkarības no moduļiem. Pēc tam vienkārši importējiet bibliotēkas no LangChain, lai izmantotu buferatmiņu iepriekšējās sarunas glabāšanai. Lietotājs var arī pievienot atmiņu tērzēšanas modelim, izveidojot LLMChain un pēc tam pārbaudot ķēdi, nodrošinot ievadi. Šajā rokasgrāmatā ir aprakstīts atmiņas izmantošanas process LLMChain, izmantojot LangChain.