أطلقت IBM إصدار Mellea 0.4.0 وGranite Libraries لخطوط AI القابلة للتحقق
حدّثت IBM Research Mellea إلى الإصدار 0.4.0 وأطلقت بالتزامن ثلاث Granite Libraries — وهي محولات LoRA متخصصة لنماذج Granite. يضيف الإصدار تكاملًا أصليًا للمكتبات

أطلقت IBM Research نسخة Mellea 0.4.0 وقدمت في الوقت نفسه ثلاث Granite Libraries — مجموعات من المحولات المتخصصة لنماذج Granite. يستهدف الإصدار أولئك الذين يبنون ليس مجرد روبوتات محادثة، بل خطوط أنابيب ذكاء اصطناعي مُدارة مع التحقق من البنية والتحقق من الحقائق والامتثال للقواعد.
ما تم تحديثه
Mellea هي مكتبة Python مفتوحة المصدر لـ "البرامج التوليدية": بدلاً من هندسة الأوامر الهشة، تقدم بناء سير عمل LLM من خطوات يمكن التنبؤ بها. تضع IBM موضعها كبديل للمنسقات ذات الأغراض العامة، حيث يبقى سلوك النموذج في كثير من الأحيان احتمالياً وقليل التكرار. يكون الإطار العمل ضرورياً عندما يصبح ناتج النموذج جزءاً من عملية تجارية أو تقرير أو نموذج أو سلسلة من إجراءات الوكيل. تطور النسخة 0.4.0 أفكار الإصدار 0.3.0 وتوسع مجموعة أدوات الكتل الأساسية لمثل هذه السيناريوهات.
تقدم النسخة الجديدة طبقة تكامل أصلية مع Granite Libraries من خلال API موحدة. التركيز الرئيسي هو فك التشفير المقيد، بحيث تمتثل الإجابات لمخطط محدد بدلاً من مجرد "المظهر" مثل JSON الصحيح. نمط مهم آخر هو instruct-validate-repair: ينتج النظام أولاً إجابة، ثم يتحقق من صحتها وإذا لزم الأمر، يطلق عملية التصحيح. وفقاً لملاحظات الإصدار، تلقت Mellea أيضاً دعم الخطافات والإضافات، وتصدير السجلات عبر OTLP، والمقاييس لـ Prometheus و OpenTelemetry، بالإضافة إلى تتبع استهلاك الرموز والأحداث على مستوى خط الأنابيب.
ما دخل في Granite Libraries
Granite Libraries ليست نموذجاً عاماً كبيراً آخر، بل مجموعة من محولات LoRA لـ granite-4.0-micro. يتم تدريب كل محول على عملية ضيقة داخل السلسلة: إعادة كتابة الاستعلام، التحقق من تحقيق المتطلبات، تقييم الحقيقية، إضافة الاقتباسات أو تتبع انتهاكات السياسة. يسمح هذا النهج بتعزيز مراحل خط الأنابيب الفردية دون إعادة تدريب كاملة للنموذج الأساسي. تؤكد IBM بشكل خاص أن هذا يوفر مكاسب دقة بتكلفة معاملات معتدلة دون كسر القدرات الأساسية لـ Granite.
- granitelib-core-r1.0 — محولات للتحقق من المتطلبات وتقييم ثقة الإجابة والقابلية للشرح من خلال إسناد السياق.
- granitelib-rag-r1.0 — أدوات لـ RAG الوكيل: إعادة كتابة الاستعلام وتوضيح الاستعلام والتحقق من صلة السياق وتقييم القابلية للإجابة وكشف الهلوسات وإنشاء الاقتباسات.
- granitelib-guardian-r1.0 — وحدات الأمان والحقيقية والامتثال للسياسة، بما في ذلك تصحيح الحقيقية وحراس منفصلة.
- جميع المكتبات تعمل على أساس granite-4.0-micro، ويتم نشر مجموعة RAG كحزمة مدمجة بحوالي 14.4 مليون معامل.
من الناحية العملية، هذا يعني أن المطور لا يحتاج إلى إجبار نموذج واحد على القيام بكل شيء بنفس الجودة. بدلاً من ذلك، تنسق Mellea "المدخلات" المتخصصة في الأماكن الصحيحة: قبل الاسترجاع وقبل التوليد وبعد التوليد والتحقق النهائي. بالنسبة لسيناريوهات المشاريع، هذا مفيد بشكل خاص عندما تحتاج إلى اتباع مخطط قابل للإثبات، وعدم الإجابة على سؤال لا يمكن حله، وإرجاع اقتباسات لكل بيان أو إظهار أجزاء السياق التي اعتمد عليها النظام فعلاً.
لماذا الإصدار مهم
الفكرة الرئيسية للإصدار هي التحول من "نموذج ذكي مع أمر كبير" إلى معمارية معيارية، حيث يتم التحكم في الجودة في كل خطوة. هذا يتماشى بشكل جيد مع مهام المنتج الحقيقية: المساعدون الداخليون والبحث RAG عبر المستندات والمساعدون مع استدعاء الأدوات والفحوصات الامتثالية وأي سيناريو حيث يجب عدم مجرد ملاحظة خطأ من قبل المستخدم ولكن يتم اكتشافه من قبل النظام تلقائياً. بالنسبة للصناعات المراجعة مثل المالية أو الطب أو إدارة المستندات في الشركات، هذا النهج عملي بشكل خاص.
تتميز القابلية للملاحظة بشكل منفصل. إذا كان لديك كومة LLM رد نداءات وقياس وقياس OpenTelemetry وتصدير إلى Prometheus، يمكن للفريق بالفعل إدارتها مثل خدمة الإنتاج العادية: انظر أين يتم فقدان الرموز وفي أي مرحلة يفشل التحقق وأي محولات تشغل دورة الإصلاح في الغالب. هذا يبسط ليس فقط تصحيح الأخطاء، بل التشغيل أيضاً: تبدأ وظائف الذكاء الاصطناعي تبدو مثل الخدمة القابلة للقياس وليس صندوق أسود مع عروض توضيحية جيدة. بالنسبة للفرق التي تترجم التجارب إلى الإنتاج، غالباً ما يكون هذا أكثر أهمية من تحسين المعيار التالي.
حركة قوية أخرى من IBM هي المراهنة على محولات متخصصة بدلاً من تضخيم النموذج الأساسي لكل مهمة. يحتوي Core على تقييم عدم اليقين والتحقق من المتطلبات، وRAG له معالجة الاستعلام والصلة والاقتباس، وGuardian له فحوصات الأمان والحقيقية والامتثال للسياسة. في المجموع، يحول هذا Granite ليس فقط إلى نموذج، بل إلى مجموعة من البدائل المطبقة لبناء أنظمة ذكاء اصطناعي مراقبة. في الواقع، يتم نقل جزء من ضمان الجودة اليدوي وضبط الأوامر هنا إلى مكونات منفصلة وقابلة للتحقق.
ما الذي يعنيه
تراهن IBM ليس على "محادثة أخرى"، بل على البنية الأساسية للعمليات القابلة للتحقق من الذكاء الاصطناعي. إذا أخذ نهج Mellea و Granite Libraries حقهم، سيتحول السوق بسرعة أكبر من هندسة الأوامس اليدوية إلى طريقة موجهة نحو الهندسة وأكثر معيارية وقابلية للتدقيق لبناء منتجات LLM، حيث لا يقتصر الاهتمام على جودة الإجابة فقط، بل أيضاً على القدرة على شرح والتحقق وإذا لزم الأمر، التصحيح التلقائي قبل تسليمه للمستخدم.