13 May, 2025

شركة Arya.ai تَكشف عن تطبيقات MCP لتحويل النماذج اللغوية الكبيرة (LLMs) العامة إلى خبراء متخصصين



مومباي، الهند ونيويورك، 13 مايو، 2025 /PRNewswire/ -- أعلنت Arya.ai اليوم عن إطلاق تطبيقات APEX MCP (بروتوكول سياقات النماذج) للعميل والسيرفر. وهي طبقة تنسيق مبتكرة مصممة لتحويل نماذج اللغة الكبيرة ذات الأغراض العامة إلى خبراء موثوقين في مجالات محددة.

Arya.ai Unveils MCP Applications to Transform Generic LLMs into Domain-Specific Experts

ومع اعتماد المؤسسات المتزايد على النماذج اللغوية الكبيرة (LLMs) في مجالات دعم العملاء، والعمليات، والامتثال، بَرزت مشكلة مألوفة: الهلوسات، والتناقض، وضعف الموثوقية في المهام المتخصصة. فما هو حل Arya.ai؟ طبقة معيارية من التطبيقات المُدربة مُسبقًا، تقوم بتغطية النموذج اللغوي الكبير بالمعرفة المتخصصة، لجعله أكثر موثوقية.

قال Deekshith Marla، مؤسس Arya.ai: "في جوهرها، يتم تكييف نظام MCP كمحرك تنسيق يُقدم السياق الخاص بأي مجال، ويخفض الهلوسات، ويُوفر الدقة لتطبيقات الذكاء الاصطناعي التوليدي (GenAI)". "الأمر لا يقتصر على تحسين الأوامر للنموذج، بل على الاستفادة من قاعدة معرفية تم التحقق منها واختبارها".

التغطية التخصصية على نطاق واسع

مع أكثر من 100 وحدة ذكاء اصطناعي مُصممة مسبقًا تدعم النموذج اللغوي الكبير الأساسي، تُتيح منصة APEX المدعومة بنظام MCP من Arya للفِرق إمكانية إنشاء مسارات عمل تمتد عبر مجالات مثل التمويل، والامتثال، والخصوصية، وتجربة العملاء، وغيرها. تم تصميم كل وحدة للتعامل مع مهام تخصصية دقيقة مثل تحليل البيانات المالية، وتقييم الجدارة الائتمانية، كشف التزوير في المستندات، والتحقق من الهوية، وتحليل الصوت، ومعالجة مطالبات التأمين، وغير ذلك الكثير.

ويمكن الوصول إلى هذه الوحدات عبر كتالوج قابل للبحث، وتنفيذها من خلال JSON-RPC، وربطها معًا باستخدام واجهة APEX البصرية بدون برمجة. وسواء كان الهدف استخراج البيانات، أو تنفيذ القواعد، أو معالجة السياق مسبقًا، فإن كل وحدة تقوم بتغطية النموذج اللغوي الكبير ببيانات تستند إلى المعرفة التخصصية وتتحقق من صحة المخرجات بعد التنفيذ، مما يجعل الذكاء الاصطناعي موثوقًا من تصميمه.

التوصيل والتشغيل والحوكمة

يتولى سيرفر نظام MCP إدارة اكتشاف الوحدات وتنفيذها وتسجيل العمليات، بينما يقوم عميل MCP بتنسيق المعالجة المسبقة ودمج النموذج اللغوي الكبير (LLM).

النظام لا يعتمد على نموذج معين، مما يَمنح المؤسسات مرونة كاملة في الاستخدام.

ما الذي يميز هذا النظام؟

  ذكاء اصطناعي جاهز للتدقيق: يتم تسجيل كل عملية استدعاء للوحدات، وكل أمر، وكل استجابة من النموذج اللغوي الكبير، مما يضمن إمكانية التتبع والامتثال.

  دمج دون إعادة كتابة: يمكنك إضافة أو استبدال الوحدات دون الحاجة إلى تعديل منطق التطبيق الأساسي.

  تركيب قابل للتوسع: يمكن إنشاء مسارات عمل قوية للذكاء الاصطناعي من خلال ربط الوحدات، مثل: "إخفاء المعلومات الحساسة (PII) ← تحليل المشاعر ← ملخص تنفيذي" في مسار واحد.

حالات استخدام المؤسسات في العمل

يمكن للبنوك الآن تحليل المستندات المالية، وتقييم المخاطر، وإعداد التقارير دون الحاجة للتنقل بين تطبيقات متعددة.

ويمكن لشركات التكنولوجيا التنظيمية (RegTech) أتمتة مسار العمل الخاص بالامتثال مع سجلات تدقيق كاملة. كما يمكن لفرق تجربة العملاء استخراج الرؤى من التعليقات، وتصنيف مشكلات الدعم، واقتراح الإجراءات — بشكل فوري.

ما التالي

تقدّم Arya.ai، وهي شركة تابعة لـ Aurionpro، إمكانية الوصول المبكر إلى بيئة APEX + MCP Sandbox. ستتيح هذه البيئة للمؤسسات تجربة ربط الوحدات، وتهيئة النماذج اللغوية الكبيرة (LLM)، وتنسيق العمليات مباشرة من خلال واجهة مُستخدم (UI) مرئية.

سواء استُخدمت في الأتمتة، أو تحليل المخاطر، أو الامتثال، أو دعم العملاء، تُمكّن المنصة الفرق من بناء واختبار مسارات عمل الذكاء الاصطناعي المغطاة بسياق تخصصي بسرعة باستخدام بياناتهم الخاصة، مع تحكّم كامل وقابلية للتتبع.

مع نظام MCP في المركز، تبني Arya.ai ذكاء قابل للتحقق، ومتوافق، وقابل للتوسع—وحدة بعد أخرى.

=