كيفية استخدام محلل الإخراج المنظم في LangChain؟

Kyfyt Astkhdam Mhll Alakhraj Almnzm Fy Langchain



LangChain هو إطار العمل لبناء نماذج الدردشة وLLMs للحصول على المعلومات من مجموعة البيانات أو الإنترنت باستخدام بيئة OpenAI. يتم استخدام محلل الإخراج المنظم للحصول على حقول أو استجابات متعددة مثل الإجابة الفعلية وبعض المعلومات الإضافية ذات الصلة. يمكن استخدام مكتبات المحلل اللغوي مع LangChain لاستخراج البيانات باستخدام النماذج المصممة كنماذج LLM أو نماذج دردشة.

يوضح هذا المنشور عملية استخدام محلل الإخراج المنظم في LangChain.







كيفية استخدام محلل الإخراج المنظم في LangChain؟

لاستخدام محلل الإخراج المنظم في LangChain، ما عليك سوى اتباع الخطوات التالية:



الخطوة 1: تثبيت المتطلبات الأساسية



ابدأ العملية بتثبيت إطار عمل LangChain إذا لم يكن مثبتًا بالفعل في بيئة Python الخاصة بك:





نقطة ثَبَّتَ com.langchain



قم بتثبيت إطار عمل OpenAI للوصول إلى أساليبه لبناء محلل في LangChain:

نقطة ثَبَّتَ openai

بعد ذلك، ما عليك سوى الاتصال ببيئة OpenAI باستخدام مفتاح API الخاص بها للوصول إلى بيئتها باستخدام ' أنت ' مكتبة وتوفير مفتاح API باستخدام ' com.getpass ' مكتبة:

استيراد لنا
استيراد getpass

os.environ [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'مفتاح واجهة برمجة تطبيقات OpenAI:' )

الخطوة 2: إنشاء مخطط للإخراج/الاستجابة

بعد الحصول على الاتصال بـ OpenAI، ما عليك سوى استيراد المكتبات لإنشاء المخطط لإنشاء المخرجات:

من langchain.output_parsers قم باستيراد StructuredOutputParser، ResponseSchema
من langchain.prompts قم باستيراد PromptTemplate وChatPromptTemplate وHumanMessagePromptTemplate
من langchain.llms قم باستيراد OpenAI
من langchain.chat_models قم باستيراد ChatOpenAI

حدد مخطط الاستجابة وفقًا للمتطلبات بحيث يقوم النموذج بإنشاء الاستجابة وفقًا لذلك:

مخططات الاستجابة = [
مخطط الاستجابة ( اسم = 'إجابة' , وصف = 'الرد على الاستفسار' ) ,
مخطط الاستجابة ( اسم = 'مصدر' , وصف = 'مصدر الموقع الذي يتم استخدامه للحصول على الإجابة' )
]
output_parser = StructuredOutputParser.from_response_schemas ( Response_schemas )

الخطوة 3: تنسيق القالب

بعد تكوين المخطط للمخرجات، ما عليك سوى تعيين قالب الإدخال باللغة الطبيعية حتى يتمكن النموذج من فهم الأسئلة قبل جلب الرد لها:

format_instructions =put_parser.get_format_instructions ( )
موجه = PromptTemplate (
نموذج = 'قم بالرد على سؤال المستخدم. {نموذج} {استفسار}' ,
input_variables = [ 'استفسار' ] ,
Part_variables = { 'نموذج' :format_instructions }
)

الطريقة الأولى: استخدام نموذج اللغة

بعد تكوين قوالب التنسيق للأسئلة والأجوبة، ما عليك سوى إنشاء النموذج باستخدام وظيفة OpenAI():

النموذج = OpenAI ( درجة حرارة = 0 )

قم بتعيين المطالبة في ' استفسار 'المتغير وتمريره إلى format_prompt() تعمل كمدخل ثم قم بتخزين الإجابة في ' انتاج ' عامل:

_input = موجه.format_prompt ( استفسار = 'كم عدد القارات في العالم' )
الإخراج = النموذج ( _input.to_string ( ) )

اتصل ب تحليل () دالة مع متغير الإخراج كوسيطة للحصول على الإجابة من النموذج:

put_parser.parse ( انتاج )

يحصل محلل الإخراج على إجابة الاستعلام ويعرض ردًا تفصيليًا مع رابط صفحة موقع الويب الذي يتم استخدامه للحصول على الرد:

الطريقة الثانية: استخدام نموذج الدردشة

للحصول على نتائج من محلل الإخراج في LangChain، استخدم الأمر chat_model المتغير أدناه:

chat_model = ChatOpenAI ( درجة حرارة = 0 )

لفهم المطالبة، قم بتكوين قالب المطالبة لنموذج الدردشة. ثم قم بإنشاء الاستجابة وفقًا للإدخال:

موجه = ChatPromptTemplate (
رسائل = [
HumanMessagePromptTemplate.from_template ( 'قم بالرد على سؤال المستخدم. {تنسيق_تعليمات} {استفسار}' )
] ,
input_variables = [ 'استفسار' ] ,
Part_variables = { 'تنسيق_تعليمات' :format_instructions }
)

بعد ذلك، ما عليك سوى تقديم الإدخال في ' استفسار 'المتغير ثم قم بتمريره إلى نموذج الدردشة () وظيفة للحصول على الإخراج من النموذج:

_input = موجه.format_prompt ( استفسار = 'الولايات المتحدة الأمريكية تؤيد' )
الإخراج = chat_model ( _input.to_messages ( ) )

للحصول على الرد من نموذج الدردشة، استخدم Output_parser الذي يخزن النتيجة من ' انتاج ' عامل:

put_parser.parse ( content.output )

نموذج الدردشة يعرض إجابة الاستعلام واسم الموقع الذي يتم استخدامه للحصول على الإجابة من الإنترنت:

يتعلق الأمر كله باستخدام محلل الإخراج المنظم في LangChain.

خاتمة

لاستخدام محلل الإخراج المنظم في LangChain، ما عليك سوى تثبيت وحدتي LangChain وOpenAI لبدء العملية. بعد ذلك، اتصل ببيئة OpenAI باستخدام مفتاح API الخاص بها، ثم قم بتكوين قوالب المطالبة والاستجابة للنموذج. يمكن استخدام المحلل اللغوي مع نموذج اللغة أو نموذج الدردشة. يشرح هذا الدليل استخدام محلل الإخراج بكلتا الطريقتين.