LangChain ir ietvars, ko var izmantot, lai importētu bibliotēkas un atkarības lielu valodu modeļu vai LLM veidošanai. Valodas modeļi izmanto atmiņu, lai saglabātu datus vai vēsturi datu bāzē kā novērojumu, lai iegūtu sarunas kontekstu. Atmiņa ir konfigurēta, lai saglabātu jaunākos ziņojumus, lai modelis varētu saprast lietotāja sniegtos neskaidros norādījumus.
Šajā emuārā ir izskaidrots atmiņas izmantošanas process LLMChain, izmantojot LangChain.
Kā izmantot atmiņu LLMChain, izmantojot LangChain?
Lai pievienotu atmiņu un izmantotu to LLMChain, izmantojot LangChain, ConversationBufferMemory bibliotēku var izmantot, importējot to no LangChain.
Lai uzzinātu par atmiņas izmantošanas procesu LLMChain, izmantojot LangChain, skatiet šo rokasgrāmatu:
1. darbība: instalējiet moduļus
Vispirms sāciet atmiņas izmantošanas procesu, instalējot LangChain, izmantojot komandu pip:
pip instalēt langchain
Instalējiet OpenAI moduļus, lai iegūtu tās atkarības vai bibliotēkas, lai izveidotu LLM vai tērzēšanas modeļus:
pip install openai
Iestatiet vidi OpenAI, izmantojot tās API atslēgu, importējot OS un getpass bibliotēkas:
importēt mūsimportēt getpass
os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API atslēga:')
2. darbība. Bibliotēku importēšana
Pēc vides iestatīšanas vienkārši importējiet tādas bibliotēkas kā ConversationBufferMemory no LangChain:
no langchain.chains importēt LLMChainno langchain.llms importēt OpenAI
no langchain.memory importēšanas ConversationBufferMemory
no langchain.prompts importēt PromptTemplate
Konfigurējiet uzvednes veidni, izmantojot tādus mainīgos kā “input”, lai iegūtu vaicājumu no lietotāja, un “hist” datu glabāšanai buferatmiņā:
template = '''Jūs esat modele, kas tērzēja ar cilvēku{hist}
Cilvēks: {input}
Tērzēšanas robots: '''
prompt = PromptTemplate(
input_variables=['hist', 'input'], template=veidne
)
atmiņa = Sarunu buferatmiņa(atmiņas_atslēga = 'hist')
3. darbība: LLM konfigurēšana
Kad vaicājuma veidne ir izveidota, konfigurējiet LLMChain() metodi, izmantojot vairākus parametrus:
llm = OpenAI()llm_chain = LLMChain(
llm=llm,
uzvedne=prompt,
verbose=Tiesa,
atmiņa = atmiņa,
)
4. darbība: LLMChain pārbaude
Pēc tam pārbaudiet LLMChain, izmantojot ievades mainīgo, lai saņemtu uzvedni no lietotāja teksta formā:
llm_chain.predict(input='Sveiks, mans draugs')
Izmantojiet citu ievadi, lai iegūtu atmiņā saglabātos datus izvades iegūšanai, izmantojot kontekstu:
llm_chain.predict(input='Labi! man iet labi - kā jums klājas')
5. darbība. Atmiņas pievienošana tērzēšanas modelim
Atmiņu var pievienot uz tērzēšanas modeli balstītai LLMChain, importējot bibliotēkas:
no langchain.chat_models importējiet ChatOpenAIno langchain.schema importēšanas SystemMessage
no langchain.prompts importēt ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder
Konfigurējiet uzvednes veidni, izmantojot ConversationBufferMemory(), izmantojot dažādus mainīgos, lai iestatītu lietotāja ievadi:
prompt = ChatPromptTemplate.from_messages([SystemMessage(content='Jūs esat modelis, kurš sarunājas ar cilvēku'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])
atmiņa = Sarunu buferatmiņa (atmiņas_atslēga = 'hist', return_messages = True)
6. darbība: LLMChain konfigurēšana
Iestatiet LLMChain() metodi, lai konfigurētu modeli, izmantojot dažādus argumentus un parametrus:
llm = ChatOpenAI()chat_llm_chain = LLMChain(
llm=llm,
uzvedne=prompt,
verbose=Tiesa,
atmiņa = atmiņa,
)
7. darbība: LLMChain pārbaude
Beigās vienkārši pārbaudiet LLMChain, izmantojot ievadi, lai modelis varētu ģenerēt tekstu atbilstoši uzvednei:
chat_llm_chain.predict(input='Sveiks, mans draugs')
Modelis ir saglabājis iepriekšējo sarunu atmiņā un parāda to pirms vaicājuma faktiskās izvades:
llm_chain.predict(input='Labi! man iet labi - kā jums klājas')
Tas viss attiecas uz atmiņas izmantošanu LLMChain, izmantojot LangChain.
Secinājums
Lai izmantotu LLMChain atmiņu, izmantojot LangChain sistēmu, vienkārši instalējiet moduļus, lai iestatītu vidi, lai iegūtu atkarības no moduļiem. Pēc tam vienkārši importējiet bibliotēkas no LangChain, lai izmantotu buferatmiņu iepriekšējās sarunas glabāšanai. Lietotājs var arī pievienot atmiņu tērzēšanas modelim, izveidojot LLMChain un pēc tam pārbaudot ķēdi, nodrošinot ievadi. Šajā rokasgrāmatā ir aprakstīts atmiņas izmantošanas process LLMChain, izmantojot LangChain.