كيفية استخدام ملخص المحادثة في LangChain؟

Kyfyt Astkhdam Mlkhs Almhadtht Fy Langchain



LangChain هو الإطار الذي يمكن استخدامه لبناء نماذج اللغة باستخدام الكم الهائل من مجموعات بيانات التدريب المبنية باللغات الطبيعية. يوفر LangChain المكتبات والتبعيات التي يمكن استخدامها لبناء وإدارة روبوتات الدردشة ونماذج اللغة مثل LLMs. تعتبر هذه النماذج في الغالب آلات لإجراء محادثة أو استخراج بعض المعلومات بناءً على مطالبات مكتوبة بلغات شبيهة بالبشر.

سيوضح هذا الدليل عملية استخدام ملخص المحادثة في LangChain.

كيفية استخدام ملخص المحادثة في LangChain؟

يوفر LangChain مكتبات مثل ConversationSummaryMemory التي يمكنها استخراج الملخص الكامل للدردشة أو المحادثة. ويمكن استخدامه للحصول على المعلومات الرئيسية للمحادثة دون الحاجة إلى قراءة جميع الرسائل والنصوص المتوفرة في الدردشة.







للتعرف على عملية استخدام ملخص المحادثة في LangChain، ما عليك سوى اتباع الخطوات التالية:



الخطوة 1: تثبيت الوحدات

أولاً، قم بتثبيت إطار عمل LangChain للحصول على تبعياته أو مكتباته باستخدام الكود التالي:



نقطة تثبيت لانجشين





الآن، قم بتثبيت وحدات OpenAI بعد تثبيت LangChain باستخدام الأمر pip:

نقطة تثبيت openai



بعد تثبيت الوحدات، ببساطة إعداد البيئة باستخدام الكود التالي بعد الحصول على مفتاح API من حساب OpenAI:

يستورد أنت

يستورد com.getpass

أنت . تقريبًا [ 'OPENAI_API_KEY' ] = com.getpass . com.getpass ( 'مفتاح واجهة برمجة تطبيقات OpenAI:' )

الخطوة 2: استخدام ملخص المحادثة

ابدأ عملية استخدام ملخص المحادثة عن طريق استيراد المكتبات من LangChain:

من com.langchain. ذاكرة يستورد ملخص المحادثةالذاكرة , ChatMessageHistory

من com.langchain. llms يستورد OpenAI

قم بتكوين ذاكرة النموذج باستخدام طريقتي ConversationSummaryMemory() وOpenAI() واحفظ البيانات فيه:

ذاكرة = ملخص المحادثةالذاكرة ( LLM = OpenAI ( درجة حرارة = 0 ) )

ذاكرة. save_context ( { 'مدخل' : 'مرحبًا' } , { 'انتاج' : 'أهلاً' } )

قم بتشغيل الذاكرة عن طريق استدعاء Load_memory_variables() طريقة استخراج البيانات من الذاكرة:

ذاكرة. Load_memory_variables ( { } )

كما يمكن للمستخدم الحصول على البيانات على شكل محادثة مثل كل كيان برسالة منفصلة:

ذاكرة = ملخص المحادثةالذاكرة ( LLM = OpenAI ( درجة حرارة = 0 ) , return_messages = حقيقي )

ذاكرة. save_context ( { 'مدخل' : 'مرحبًا' } , { 'انتاج' : 'مرحبا كيف حالك' } )

للحصول على رسالة الذكاء الاصطناعي والبشر بشكل منفصل، قم بتنفيذ طريقةload_memory_variables() :

ذاكرة. Load_memory_variables ( { } )

قم بتخزين ملخص المحادثة في الذاكرة ثم قم بتنفيذ الذاكرة لعرض ملخص الدردشة/المحادثة على الشاشة:

رسائل = ذاكرة. chat_memory . رسائل

Previous_summary = ''

ذاكرة. توقع_جديد_ملخص ( رسائل , Previous_summary )

الخطوة 3: استخدام ملخص المحادثة مع الرسائل الموجودة

يمكن للمستخدم أيضًا الحصول على ملخص المحادثة الموجودة خارج الفصل الدراسي أو الدردشة باستخدام رسالة ChatMessageHistory(). يمكن إضافة هذه الرسائل إلى الذاكرة حتى تتمكن تلقائيًا من إنشاء ملخص المحادثة الكاملة:

تاريخ = ChatMessageHistory ( )

تاريخ. add_user_message ( 'أهلاً' )

تاريخ. add_ai_message ( 'أهلاً!' )

قم ببناء النموذج مثل LLM باستخدام طريقة OpenAI() لتنفيذ الرسائل الموجودة في ملف chat_memory عامل:

ذاكرة = ملخص المحادثةالذاكرة. from_messages (
LLM = OpenAI ( درجة حرارة = 0 ) ,
chat_memory = تاريخ ,
return_messages = حقيقي
)

قم بتنفيذ الذاكرة باستخدام المخزن المؤقت للحصول على ملخص الرسائل الموجودة:

ذاكرة. متعادل

قم بتنفيذ التعليمة البرمجية التالية لبناء LLM عن طريق تكوين الذاكرة المؤقتة باستخدام رسائل الدردشة:

ذاكرة = ملخص المحادثةالذاكرة (
LLM = OpenAI ( درجة حرارة = 0 ) ,
متعادل = '''الإنسان يسأل الآلة عن نفسها
يرد النظام بأن الذكاء الاصطناعي مصمم من أجل الخير لأنه يمكن أن يساعد البشر على تحقيق إمكاناتهم'''
,
chat_memory = تاريخ ,
return_messages = حقيقي
)

الخطوة 4: استخدام ملخص المحادثة في السلسلة

تشرح الخطوة التالية عملية استخدام ملخص المحادثة في سلسلة باستخدام LLM:

من com.langchain. llms يستورد OpenAI
من com.langchain. السلاسل يستورد ConversationChain
LLM = OpenAI ( درجة حرارة = 0 )
المحادثة_مع_الملخص = ConversationChain (
LLM = LLM ,
ذاكرة = ملخص المحادثةالذاكرة ( LLM = OpenAI ( ) ) ,
مطول = حقيقي
)
المحادثة_مع_الملخص. يتنبأ ( مدخل = 'مرحبا كيف حالك' )

لقد بدأنا هنا في بناء السلاسل من خلال بدء المحادثة باستفسار مهذب:

انضم الآن إلى المحادثة من خلال طرح المزيد من المعلومات حول الناتج الأخير للتوسع فيه:

المحادثة_مع_الملخص. يتنبأ ( مدخل = 'أخبرني المزيد عنه!' )

قام النموذج بشرح الرسالة الأخيرة مع مقدمة تفصيلية لتقنية الذكاء الاصطناعي أو chatbot:

استخرج نقطة اهتمام من الإخراج السابق لأخذ المحادثة في اتجاه محدد:

المحادثة_مع_الملخص. يتنبأ ( مدخل = 'مذهل ما مدى جودة هذا المشروع؟' )

نحن هنا نحصل على إجابات تفصيلية من الروبوت باستخدام مكتبة ذاكرة ملخص المحادثة:

يتعلق الأمر كله باستخدام ملخص المحادثة في LangChain.

خاتمة

لاستخدام رسالة ملخص المحادثة في LangChain، ما عليك سوى تثبيت الوحدات والأطر المطلوبة لإعداد البيئة. بمجرد تعيين البيئة، قم باستيراد ملف ملخص المحادثةالذاكرة مكتبة لبناء LLMs باستخدام طريقة OpenAI (). بعد ذلك، ما عليك سوى استخدام ملخص المحادثة لاستخراج الإخراج التفصيلي من النماذج وهو ملخص المحادثة السابقة. لقد تناول هذا الدليل بالتفصيل عملية استخدام ذاكرة ملخص المحادثة باستخدام وحدة LangChain.