كيفية استخدام المخزن المؤقت لملخص المحادثة في LangChain؟

Kyfyt Astkhdam Almkhzn Almwqt Lmlkhs Almhadtht Fy Langchain



LangChain هو الإطار الذي يحتوي على جميع التبعيات والمكتبات لبناء نماذج يمكنها فهم مجموعات البيانات باللغات الطبيعية. يمكن لهذه النماذج أيضًا إنشاء نص باللغات الطبيعية أو استخراج البيانات الأكثر تشابهًا بناءً على المدخلات المقدمة من المستخدم. يتم استخدام Chatbots أو LLMs لبناء محادثات مع البشر واستخراج ملخص للمحادثة باستخدام جميع الرسائل.

سيوضح هذا الدليل عملية استخدام المخزن المؤقت لملخص المحادثة في LangChain.

كيفية استخدام المخزن المؤقت لملخص المحادثة في LangChain؟

يمكن أن تشتمل المحادثة على رسائل متعددة تشبه التفاعل بين الإنسان والآلة ويمكن للمخزن المؤقت تخزين أحدث الرسائل. ال ملخص المحادثةالذاكرة المؤقتة تُستخدم المكتبة للجمع بين المفهومين مثل تخزين أحدث الرسائل واستخراج ملخصها.







للتعرف على عملية استخدام المخزن المؤقت لملخص المحادثة في LangChain، ما عليك سوى الاطلاع على الدليل التالي:



الخطوة 1: تثبيت الوحدات

أولاً، قم بتثبيت وحدة LangChain باستخدام الأمر pip للحصول على المكتبات المطلوبة:



نقطة تثبيت لانجشين





قم بتثبيت رمز tiktoken الذي يمكن استخدامه لتقسيم المستندات النصية إلى أجزاء صغيرة:

نقطة تثبيت tiktoken



بعد ذلك، قم بتثبيت وحدات OpenAI التي يمكن استخدامها لبناء نماذج اللغة مثل LLMs والسلاسل:

نقطة تثبيت openai

الآن، إعداد البيئة عن طريق الحصول على مفتاح API من حساب OpenAI واستخدامه في النموذج:

يستورد أنت
يستورد com.getpass

أنت . تقريبًا [ 'OPENAI_API_KEY' ] = com.getpass . com.getpass ( 'مفتاح واجهة برمجة تطبيقات OpenAI:' )

الخطوة 2: استخدام المخزن المؤقت لملخص المحادثة

ابدأ عملية استخدام المخزن المؤقت لملخص المحادثة عن طريق استيراد المكتبات لإنشاء LLM باستخدام طريقة OpenAI():

من com.langchain. ذاكرة يستورد ملخص المحادثةالذاكرة المؤقتة

من com.langchain. llms يستورد OpenAI

LLM = OpenAI ( )

قم ببناء الذاكرة باستخدام طريقة ConversationSummaryBufferMemory() ثم قم بتخزين المحادثة في الذاكرة:

ذاكرة = ملخص المحادثةالذاكرة المؤقتة ( LLM = LLM , max_token_limit = 10 )

ذاكرة. save_context ( { 'مدخل' : 'مرحبًا' } , { 'انتاج' : 'كيف حالك' } )

ذاكرة. save_context ( { 'مدخل' : 'أنا بخير ماذا عنك' } , { 'انتاج' : 'ليس كثيراً' } )

الآن، قم بتنفيذ الذاكرة عن طريق استدعاء Load_memory_variables () طريقة استخراج الرسائل من الذاكرة:

ذاكرة. Load_memory_variables ( { } )

الآن، استخدم ملخص المخزن المؤقت للمحادثة لتكوين المخزن المؤقت عن طريق تحديد عدد الرسائل التي سيتم تخزينها في المخزن المؤقت. بعد ذلك قم باستخراج ملخص هذه الرسائل المخزنة في المخزن المؤقت ثم قم بتخزين المحادثة في الذاكرة:

ذاكرة = ملخص المحادثةالذاكرة المؤقتة (

LLM = LLM , max_token_limit = 10 , return_messages = حقيقي

)

ذاكرة. save_context ( { 'مدخل' : 'مرحبًا' } , { 'انتاج' : 'كيف حالك' } )

ذاكرة. save_context ( { 'مدخل' : 'أنا بخير ماذا عنك' } , { 'انتاج' : 'ليس كثيراً' } )

احصل على ملخص الرسائل السابقة المخزنة في الذاكرة المؤقتة باستخدام الكود التالي:

رسائل = ذاكرة. chat_memory . رسائل

Previous_summary = ''

ذاكرة. توقع_جديد_ملخص ( رسائل , Previous_summary )

الخطوة 3: استخدام المخزن المؤقت لملخص المحادثة في سلسلة

بناء السلاسل باستخدام سلسلة المحادثة() طريقة تحتوي على قيمة الذاكرة المؤقتة لتخزين الرسالة فيها:

من com.langchain. السلاسل يستورد ConversationChain

المحادثة_مع_الملخص = ConversationChain (
LLM = LLM ,
ذاكرة = ملخص المحادثةالذاكرة المؤقتة ( LLM = OpenAI ( ) , max_token_limit = 40 ) ,
مطول = حقيقي ,
)
المحادثة_مع_الملخص. يتنبأ ( مدخل = 'مرحبا ما الاخبار؟' )

قم بتوفير الإدخال في شكل النص باستخدام طريقة التنبؤ () للحصول على ملخص المحادثة:

المحادثة_مع_الملخص. يتنبأ ( مدخل = 'أعمل فقط على مشروع البرمجة اللغوية العصبية' )

استخدم مخرجات النموذج وأضف المزيد من البيانات باستخدام الرسائل الموجودة في الذاكرة المؤقتة واعرض ملخصها:

المحادثة_مع_الملخص. يتنبأ ( مدخل = 'نعم إنه كذلك! أنا أعمل على تصميم LLMs' )

الملخص هو أن المخرجات ستكون سهلة الفهم وأكثر ملاءمة للإنسان وأكثر ملاءمة لروبوتات الدردشة:

المحادثة_مع_الملخص. يتنبأ (

مدخل = 'أريد استخدام LangChain! هل سمعت عنه'

)

يتعلق الأمر كله باستخدام المخزن المؤقت لملخص المحادثة في LangChain.

خاتمة

لاستخدام الذاكرة المؤقتة لملخص المحادثة في LangChain، ما عليك سوى تثبيت الوحدات أو أطر العمل للحصول على المكتبات المطلوبة. بمجرد استيراد المكتبات، قم ببناء LLMs أو chatbots لاستخدام وظيفة ConverstaionSummaryBufferMemory() للحصول على ملخص المحادثة. تُستخدم الذاكرة المؤقتة لتحديد عدد الرسائل المخزنة في الذاكرة لاستخدامها في استخراج الملخص. لقد تناول هذا المنشور بالتفصيل عملية استخدام الذاكرة المؤقتة لملخص المحادثة في LangChain.