كيفية استخدام وظيفة LangChain LLMChain في بايثون

Kyfyt Astkhdam Wzyft Langchain Llmchain Fy Baythwn



لدى LangChain عدد كبير من الوحدات النمطية لإنشاء تطبيقات نماذج اللغة. يمكن جعل التطبيقات أكثر تعقيدًا من خلال الجمع بين الوحدات ، أو يمكن جعلها أبسط باستخدام وحدة واحدة. يعتبر استدعاء LLM على مدخلات معينة من أهم مكونات LangChain.

لا تعمل السلاسل لمكالمة LLM واحدة فقط ؛ إنها مجموعات من المكالمات ، إما إلى LLM أو إلى أداة أخرى. يتم توفير سلاسل من طرف إلى طرف للتطبيقات المستخدمة على نطاق واسع بواسطة LangChain جنبًا إلى جنب مع سلسلة API القياسية والعديد من تكامل الأدوات.

قد تكون المرونة والقدرة على ربط عناصر متعددة في كيان واحد مفيدة عندما نريد تصميم سلسلة تقبل مدخلات المستخدم ، وتهيئها باستخدام قالب موجه ، ثم تسلم النتيجة التي تم إنشاؤها إلى LLM.







تساعدك هذه المقالة في فهم استخدام دالة LangChain LLMchain في بايثون.



مثال: كيفية استخدام وظيفة LLMchain في LangChain

تحدثنا عن ماهية السلاسل. الآن ، سنرى عرضًا عمليًا لهذه السلاسل التي يتم تنفيذها في نص برمجي بايثون. في هذا المثال ، نستخدم سلسلة LangChain الأساسية وهي LLMchain. يحتوي على قالب موجه و LLM ، ويربطهما معًا لإنشاء مخرجات.



لبدء تنفيذ المفهوم ، يتعين علينا تثبيت بعض المكتبات المطلوبة التي لم يتم تضمينها في مكتبة Python القياسية. المكتبات التي نحتاج إلى تثبيتها هي LangChain و OpenAI. نقوم بتثبيت مكتبة LangChain لأننا نحتاج إلى استخدام وحدة LLMchain الخاصة بها بالإضافة إلى قالب PromptTemplate. تتيح لنا مكتبة OpenAI استخدام نماذج OpenAI للتنبؤ بالمخرجات ، أي GPT-3.





لتثبيت مكتبة LangChain ، قم بتشغيل الأمر التالي على المحطة:

تثبيت langchain $ pip

قم بتثبيت مكتبة OpenAI باستخدام الأمر التالي:



تثبيت Openai بالدولار الأمريكي

بمجرد اكتمال التركيبات ، يمكننا البدء في العمل في المشروع الرئيسي.

من لانجشين. حث يستورد موجه نموذج

من لانجشين. llms يستورد أوبن إيه آي

يستورد أنت

أنت . تقريبًا [ 'OPENAI_API_KEY' ] = 'sk-YOUR API KEY'

يبدأ المشروع الرئيسي باستيراد الوحدات اللازمة. لذلك ، نقوم أولاً باستيراد قالب PromptTemplate من مكتبة 'langchain.prompts'. ثم نقوم باستيراد OpenAI من مكتبة “langchain.llms”. بعد ذلك ، نقوم باستيراد 'نظام التشغيل' لتعيين متغير البيئة.

في البداية ، قمنا بتعيين مفتاح OpenAI API كمتغير للبيئة. متغير البيئة هو متغير يتكون من اسم وقيمة ويتم تعيينه على نظام التشغيل الخاص بنا. 'os.environ' هو كائن يستخدم لتعيين متغيرات البيئة. لذلك ، نسمي 'os.environ'. الاسم الذي قمنا بتعيينه لمفتاح API هو OPENAI_API_KEY. ثم نقوم بتعيين مفتاح API كقيمة له. مفتاح API فريد لكل مستخدم. لذلك ، عندما تمارس نص الشفرة هذا ، اكتب مفتاح API السري الخاص بك.

llm = أوبن إيه آي ( درجة حرارة = 0.9 )

اِسْتَدْعَى = موجه نموذج (

متغيرات المدخلات = [ 'منتجات' ] و

نموذج = 'ما اسم العلامة التجارية التي تبيع {products}؟' و

)

الآن بعد أن تم تعيين المفتاح كمتغير البيئة ، نقوم بتهيئة غلاف. اضبط درجة الحرارة لنماذج OpenAI GPT. درجة الحرارة هي خاصية تساعدنا على تحديد مدى عدم القدرة على التنبؤ بالاستجابة. كلما زادت قيمة درجة الحرارة ، زادت عدم انتظام الاستجابات. قمنا بتعيين قيمة درجة الحرارة على 0.9 هنا. وبالتالي ، نحصل على أكثر النتائج عشوائية.

ثم نقوم بتهيئة فئة PromptTemplate. عندما نستخدم LLM ، فإننا ننشئ موجهًا من المدخلات المأخوذة من المستخدم ثم نمررها إلى LLM بدلاً من إرسال الإدخال مباشرةً إلى LLM الذي يتطلب ترميزًا ثابتًا (الموجه هو إدخال أخذناه من المستخدم وعلى نموذج الذكاء الاصطناعي المحدد الذي يجب أن ينشئ استجابة). لذلك ، نقوم بتهيئة PromptTemplate. بعد ذلك ، ضمن أقواسها المتعرجة ، نحدد input_variable على أنه 'Products' ونص النموذج هو 'What would a brand name that sell products}؟' يخبر مدخلات المستخدم ما تفعله العلامة التجارية. بعد ذلك ، يقوم بتنسيق الموجه بناءً على هذه المعلومات.

من لانجشين. السلاسل يستورد LLMChain

سلسلة = LLMChain ( llm = llm و اِسْتَدْعَى = اِسْتَدْعَى )

الآن بعد أن تم تنسيق قالب PromptTemplate الخاص بنا ، فإن الخطوة التالية هي إنشاء LLMchain. أولاً ، قم باستيراد وحدة LLMchain من مكتبة 'langchain.chain'. بعد ذلك ، نقوم بإنشاء سلسلة عن طريق استدعاء وظيفة LLMchain () التي تأخذ مدخلات المستخدم وتنسيق الموجه معها. أخيرًا ، يرسل الرد إلى LLM. لذلك ، فهو يربط بين PromptTemplate و LLM.

مطبعة ( سلسلة. يجري ( 'مستلزمات فنية' ) )

لتنفيذ السلسلة ، نسمي طريقة chain.run () ونوفر مدخلات المستخدم كمعامل يتم تعريفه على أنه 'Art Supplies'. بعد ذلك ، نقوم بتمرير هذه الطريقة إلى وظيفة Python print () لعرض النتيجة المتوقعة على وحدة تحكم Python.

يقرأ نموذج الذكاء الاصطناعي الموجه ويستجيب بناءً عليه.

نظرًا لأننا طلبنا تسمية علامة تجارية تبيع المستلزمات الفنية ، يمكن رؤية الاسم المتوقع بواسطة نموذج AI في اللقطة التالية:

يوضح لنا هذا المثال LLMchaining عندما يتم توفير متغير إدخال واحد. هذا ممكن أيضًا عند استخدام متغيرات متعددة. لذلك ، علينا ببساطة إنشاء قاموس للمتغيرات لإدخالها بالكامل. دعونا نرى كيف يعمل هذا:

من لانجشين. حث يستورد موجه نموذج

من لانجشين. llms يستورد أوبن إيه آي

يستورد أنت

أنت . تقريبًا [ 'OPENAI_API_KEY' ] = 'sk- Your-API-KEY'

llm = OpenAI (درجة الحرارة = 0.9)

موجه = PromptTemplate (

متغيرات الإدخال = ['
ماركة '،' منتج '] ،

نموذج = '
ماذا سيكون اسم { ماركة } التي تبيع { منتج } ؟

)

من langchain.chains استيراد LLMChain

سلسلة = LLMChain (llm = llm ، موجه = موجه)

طباعة (chain.run ({

'ماركة': '
لوازم فنية

'منتج': '
الألوان '

}))

يتشابه الكود مع المثال السابق ، باستثناء أنه يتعين علينا تمرير متغيرين في فئة قالب المطالبة. لذلك ، قم بإنشاء قاموس المدخلات_المتغيرات. الأقواس الطويلة تمثل قاموسًا. هنا ، لدينا متغيرين - 'العلامة التجارية' و 'المنتج' - مفصولان بفاصلة. الآن ، نص النموذج الذي نقدمه هو 'ما اسم {العلامة التجارية} التي تبيع {المنتج}؟' وبالتالي ، يتنبأ نموذج AI باسم يركز على هذين المتغيرين الإدخال.

بعد ذلك ، نقوم بإنشاء LLMchain الذي يقوم بتنسيق إدخال المستخدم بالموجه لإرسال الاستجابة إلى LLM. لتشغيل هذه السلسلة ، نستخدم طريقة chain.run () ونمرر قاموس المتغيرات مع إدخال المستخدم كـ 'Brand': 'Art Supplies' و 'Product' كـ 'Colors'. بعد ذلك ، نقوم بتمرير هذه الطريقة إلى وظيفة Python print () لعرض الاستجابة التي تم الحصول عليها.

تظهر الصورة الناتجة النتيجة المتوقعة:

خاتمة

السلاسل هي لبنات بناء LangChain. تتناول هذه المقالة مفهوم استخدام LLMchain في LangChain. لقد قدمنا ​​مقدمة إلى LLMchain ووصفنا الحاجة إلى توظيفها في مشروع Python. بعد ذلك ، قمنا بتنفيذ رسم توضيحي عملي يوضح تنفيذ LLMchain من خلال توصيل قالب PromptTemplate و LLM. يمكنك إنشاء هذه السلاسل باستخدام متغير إدخال واحد بالإضافة إلى متغيرات متعددة يوفرها المستخدم. كما يتم توفير الاستجابات التي تم إنشاؤها من نموذج GPT.