كيفية بناء LLM وLLMChain في LangChain؟

Kyfyt Bna Llm Wllmchain Fy Langchain



LangChain هو إطار العمل مع التطبيق في مجال معالجة اللغات الطبيعية أو البرمجة اللغوية العصبية لبناء نماذج بلغات شبيهة بالإنسان. يمكن للبشر استخدام هذه النماذج للحصول على إجابات من النموذج أو إجراء محادثة مثل أي إنسان آخر. يتم استخدام LangChain لبناء سلاسل عن طريق تخزين كل جملة في المحادثة والتفاعل بشكل أكبر باستخدامها كسياق.

سيوضح هذا المنشور عملية بناء LLM وLLMChain في LangChain.







كيفية بناء LLM وLLMChain في LangChain؟

لبناء LLM وLLMChain في LangChain، ما عليك سوى اتباع الخطوات المذكورة:



الخطوة 1: تثبيت الوحدات

أولاً، قم بتثبيت وحدة LangChain لاستخدام مكتباتها لبناء LLMs وLLMChain:



نقطة تثبيت لانجشين





وحدة أخرى مطلوبة لبناء LLMs هي OpenAI، ويمكن تثبيتها باستخدام الأمر pip :

نقطة تثبيت openai



الخطوة 2: إعداد البيئة

قم بإعداد بيئة باستخدام مفتاح OpenAI API من بيئتها:

استيراد لنا
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')

المثال 1: إنشاء ماجستير إدارة الأعمال باستخدام LangChain

المثال الأول هو بناء نماذج اللغة الكبيرة باستخدام LangChain عن طريق استيراد مكتبات OpenAI وChatOpenAI واستخدام وظيفة llm():

الخطوة 1: استخدام نموذج الدردشة LLM

قم باستيراد وحدات OpenAI وChatOpenAI لبناء LLM بسيط باستخدام بيئة OpenAI من LangChain:

من langchain.chat_models قم باستيراد ChatOpenAI

من langchain.llms قم باستيراد OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.توقع('مرحبا!')

أجاب النموذج بالإجابة 'مرحبًا' كما هو موضح في لقطة الشاشة التالية أدناه:

يتم استخدام وظيفة التنبؤ () من chat_model للحصول على الإجابة أو الرد من النموذج:

chat_model.predict('مرحبا!')

يعرض الإخراج أن النموذج تحت تصرف المستخدم الذي يطرح الاستعلامات:

الخطوة 2: استخدام الاستعلام النصي

يمكن للمستخدم أيضًا الحصول على إجابات من النموذج من خلال إعطاء الجملة الكاملة في متغير النص:

text = 'ما هو الاسم الجيد لشركة تصنع الجوارب الملونة؟'

توقع (نص)

عرض النموذج مجموعات ألوان متعددة للجوارب الملونة:

احصل على الرد التفصيلي من النموذج باستخدام وظيفة التنبؤ () مع مجموعات الألوان للجوارب:

chat_model.predict(نص)

الخطوة 3: استخدام النص مع المحتوى

يمكن للمستخدم الحصول على الإجابة مع شرح بسيط عن الإجابة:

من langchain.schema قم باستيراد HumanMessage

text = 'ما هو العنوان المناسب لشركة تصنع ملابس ملونة'
الرسائل = [HumanMessage(content=text)]

llm.predict_messages(الرسائل)

لقد أنشأ النموذج عنوان الشركة وهو 'Creative Clothing Co':

توقع الرسالة لتحصل على الجواب لعنوان الشركة مع شرحها أيضاً:

chat_model.predict_messages(الرسائل)

المثال 2: إنشاء LLMChain باستخدام LangChain

المثال الثاني من دليلنا يبني LLMChain للحصول على النموذج بصيغة التفاعل البشري ليجمع كل الخطوات من المثال السابق:

من langchain.chat_models قم باستيراد ChatOpenAI
من langchain.prompts.chat قم باستيراد ChatPromptTemplate
من langchain.prompts.chat قم باستيراد ChatPromptTemplate
من langchain.prompts.chat استيراد  SystemMessagePromptTemplateمن langchain.prompts.chat استيراد HumanMessagePromptTemplate
من langchain.chains قم باستيراد LLMChain
من langchain.schema قم باستيراد BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

تحليل مواطن (الذات، النص: شارع):
إرجاع text.strip().split('، ')

قم ببناء القالب الخاص بنموذج الدردشة من خلال تقديم شرح تفصيلي لعمله ثم قم ببناء وظيفة LLMChain() التي تحتوي على مكتبات LLM ومحلل الإخراج ومكتبات chat_prompt:

template = '''عليك المساعدة في إنشاء قوائم مفصولة بفواصل
احصل على الفئة من المستخدم، وقم بإنشاء قائمة مفصولة بفواصل تحتوي على خمسة كائنات
الشيء الوحيد الذي يجب أن يكون هو الكائن من الفئة'''
system_message_prompt = SystemMessagePromptTemplate.from_template(قالب)
human_template = '{نص}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
# قم بتكوين LLMChain ببنية الاستعلام
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
السلسلة = LLMChain(
llm=ChatOpenAI(),
موجه=chat_prompt,
Output_parser=CommaSeparatedListOutputParser()
)
سلسلة.تشغيل('الألوان')

قدم النموذج الإجابة بقائمة الألوان حيث يجب أن تحتوي الفئة على 5 كائنات فقط معطاة في الموجه:

هذا كل ما يتعلق ببناء LLM وLLMChain في LangChain.

خاتمة

لإنشاء LLM وLLMChain باستخدام LangChain، ما عليك سوى تثبيت وحدات LangChain وOpenAI لإعداد بيئة باستخدام مفتاح API الخاص بها. بعد ذلك، قم ببناء نموذج LLM باستخدام chat_model بعد إنشاء القالب الفوري لاستعلام واحد لدردشة كاملة. يتم استخدام LLMChain لبناء سلاسل من جميع الملاحظات في المحادثة واستخدامها كسياق للتفاعل. يوضح هذا المنشور عملية بناء LLM وLLMChain باستخدام إطار عمل LangChain.