29 September, 2025

Alibaba Cloud Unveils Strategic Roadmaps for the Next Generation AI Innovations







FOR IMMEDIATE RELEASE



Alibaba Cloud Unveils Strategic Roadmaps for the Next Generation AI Innovations



Full-stack offerings introduced from AI models to agent development and application platforms and upgraded infrastructure during Apsara Conference 2025



September 29, 2025 – Alibaba Cloud, the digital technology and intelligence backbone of Alibaba Group, today unveiled its latest full-stack AI innovations at Apsara Conference 2025, its annual flagship technology conference. The announcement spans from next-generation large language models from the Qwen3 family, the upcoming Wan 2.5 visual-generation models, enhanced platforms for agent development and application, to major upgrades of its AI infrastructure, reinforcing the company’s global leading position at the forefront of the new AI era.



“In the future, large AI models will be deeply integrated into a wide range of devices, functioning like operating systems — equipped with persistent memory, seamless cloud-edge coordination, and the ability to continuously evolve. We remain committed to open-sourcing Qwen and shaping it into the ‘operating system of the AI era,’ empowering developers around the world to build transformative AI applications,” said Eddie Wu, Chairman and CEO of Alibaba Cloud Intelligence.



“Simultaneously, Alibaba Cloud is strategically positioned as a full-stack AI service provider, dedicated to delivering robust computing with maximized efficiency for training and deploying large AI models on the cloud. To underscore our long-term commitment to advancing AI, we will progress with our RMB 380 billion investment plan in AI and cloud infrastructure over the next three years,” Wu added.



Since the launch of the first generation of Qwen in 2023, Alibaba has open-sourced over 300 AI models built on its two foundation models: the large language model Qwen and the visual generation model Wan. With over 600 million downloads and 170,000+ derivative models created, Alibaba’s AI models have become one of the most widely adopted open-source AI series globally. Notably, over 1 million corporates and individuals have used Qwen on Model Studio, Alibaba's AI development platform.



Unveiling Qwen3-Max: The most powerful LLMs from Alibaba to date



Alibaba officially released Qwen3-Max, its largest LLM model with over 1 trillion parameters. With Instruct (non-thinking) and Thinking modes, the model achieves impressive performance across a wide range of benchmarks especially in code generation and agentic capabilities. For the instruct mode, it scores 69.6 in SWE-Bench, an authoritative benchmark for evaluating LLMs on real-world software issues, on par with some leading closed-source models. It also records remarkable performance on Tau2-Bench, a benchmark that evaluates conversational agents, showing exceptional proficiency in tool use, a foundational capability for building intelligent, action-oriented agents.



Qwen3-Max achieves impressive performance across benchmarks



A series of Qwen3 models that cover visual language and multimodal processing were also unveiled at the conference. Qwen3-VL: The most capable vision-language model in the Qwen family to date. Its Mixture-of-Experts (MoE) architecture enables flexible deployment from edge devices to high-performance cloud environments. Functioning as a visual agent, Qwen3-VL is capable of operating on both computer and mobile interfaces; It pioneers visual programming by generating code directly from images or videos, effectively turning visual designs into functional applications. Its spatial understanding capability support 3D grounding with enhanced perception of direction and distance, laying critical groundwork for embodied AI and real-world spatial navigation. Qwen3-VL-235B-A22B is available in both Instruct (non-thinking) and Thinking versions, achieving remarkable performance across leading visual perception and multimodal reasoning benchmarks.

Qwen3-Omni: a natively end-to-end, multilingual omni-model capable of processing text, images, audio, and video inputs, while delivering real-time, streaming response in both text and natural speech. Powered by a novel Thinker–Talker MoE architecture and pre-trained on 20 million hours of audio data, Qwen3-Omni delivers exceptional performance in understanding audio input (up to 30 minutes) and video-based conversation, all without compromising its strong capabilities in text and image processing. It also achieves real-time multimodal interaction, with ultra-low latency – making it an ideal solution for intuitive, hands-free interaction in intelligent cockpits, smart glasses and mobile phones. Qwen3-Omni-30B-A3B is now open sourced on Hugging Face and Alibaba Cloud’s ModelScope community. Users can also access Qwen3-Omni-Flash on Qwen Chat, a web application that allows users to experience different Qwen models.



Additionally, Qwen3-Coder and Qwen3-Image-Edit have received a major upgrade. The new Qwen3-Coder achieves faster inference speed and enhanced code safety, while Qwen3-Image-Edit has been updated to support multi-image editing with significantly improved visual consistency.



Alibaba also unveiled Fun, a family of speech LLMs equipped with advanced multilingual speech recognition and synthesis capabilities. The series includes Fun-ASR, an end-to-end automatic speech recognition (ASR) model optimized for real-world enterprise deployment, and Fun-CosyVoice, a high-quality, expressive speech synthesis model designed to generate natural-sounding spoken output in multiple languages.



Wan2.5 Preview: Elevates Multimedia Content Creation



At the same conference, Alibaba also previewed four Wan2.5 models, including its latest video generation models, an image generation model and an image editing model. The video generation models natively support high-fidelity audio generation for the video, doubling the duration from 5 to 10 seconds, enabling more complete and coherent narratives with enhanced visual quality. The models feature a natively integrated multi-modal architecture, which is trained jointly on text, audio, and visual data. This allows for aligned multi-modal generation, ensuring synchronized audio and visual content, and enhanced instruction understanding to closely follow user prompts.



New Development Framework for Enhanced Agent Deployment



For improved efficiency of implementing AI agents at scale, a development framework is now added to Model Studio, Alibaba Cloud’s AI development platform. The new framework features Model Studio-ADK (agent development kits), a high-code development framework for enterprise professionals that translates intricate business needs into executable agent logic to enables the rapid development of sophisticated AI agents with autonomous decision-making, dynamic reflection, and iterative task execution capabilities. Remarkably, users can create a DeepResearch or Agentic RAG (Retrieval-Augmented Generation) project within an hour using this robust toolkit. Model Studio has also upgraded its low-code development platform Model Studio-ADP (Agent Development Platform), enabling users with limited programming backgrounds to easily create lightweight AI agents.



Addressing key enterprise challenges such as multi-source data processing, resource constraints, and cross-environment deployment, Model Studio Agent introduces a range of enterprise-grade features. These include seamless connectivity via Model Context Protocol (MCP), RAG multi-modal fusion, dynamic inference scheduling, and sandbox service, allowing enterprises to accelerate the adoption of AI agents.



Currently, users can access over 200 industry leading models via Model Studio, including Alibaba’s self-developed Qwen and Wan models. More than 800,000 agents have been created on Model Studio, supporting diverse scenarios ranging from content creation and intelligent marketing to smart home management and production optimization. Over the past 12 months, number of model calls via Model Studio have increased by 15 times, reflecting the growing demand for robust and scalable AI solutions.



Novel AI Platforms to Support Enterprises and Creators



Following its debut in July, Alibaba Cloud has rolled out major upgrades to AgentBay, a multimodal cloud-based operating environment and expert agent platform for enterprises, developers, and AI partners. The new features—Self-Evolving Engine, custom container images and builtin safety and compliance controls—help transit agents from simple, single model helpers to composite, human-like, multimodal workers that can complete tasks end-to-end.



To meet rising enterprise demand for AI-driven growth, Alibaba Cloud also launched Lingyang AgentOne, a one-stop enterprise AI application platform that enables organizations to move from reactive response to proactive intelligence. Powered by Alibaba’s Qwen models and deeply integrated with the Alibaba ecosystem, Lingyang AgentOne offers an end-to-end agent development workspace to connect with existing systems and accelerate time-to-value. Through scenario-based solutions across marketing, analytics, customer service, and operations, Lingyang AgentOne links the full pre-sales, sales, and post-sales value chain to deliver measurable, production-ready outcomes for industries such as home improvement and e-commerce.



Additionally, Alibaba's consumer-facing AI application platform Quark launched Zaodian, a one-stop AI image and video creation platform that integrates industry leading AI models such as Alibaba's flagship video generation model Wan to deliver a professional, efficient experience for creators. Apart from the text-to-video and image-to-video functions supported by Wan, Zaodian also offers AI image generation and editing functions with leading model choices. Creators can experience the platform service at website zaodian.quark.cn or via the “AI Image” entry on Quark desktop version.



Next-Generation AI Infrastructure for Agentic AI



At the conference, the cloud pioneer has also unveiled a comprehensive suite of innovative infrastructure upgrades specifically designed to support the emerging agentic AI landscape. Storage: Alibaba Cloud enhanced its Object Storage Service (OSS) with “Vector Bucket,” an AI-powered feature enabling cost-efficient, large-scale vector data storage and retrieval — optimized for RAG and AI apps. It unifies raw and vector data management in OSS, accessible via standard APIs, simplifying scalable RAG platform development and multimedia asset organization. It helps lower the cost of AI development by letting businesses manage both raw and vector data in one place — reducing complexity and accelerating RAG application deployment.

Networking: Alibaba Cloud unveiled its latest architecture for high performance network—HPN8.0, a network specially designed for AI models. This innovation enables seamless model training, inference, and reinforcement learning (RL) across mixed computational workloads, while supporting ultra-large-scale deployments. The architecture delivers 800 Gbps network throughput, doubling the capacity in previous generation.

Security: Another key update is the addition of an AI-driven agentic function to its Cloud Threat Detection Response (CTDR) solution. This cloud-native security enhancement boosts detection, analysis, and response capabilities, providing a more intelligent and proactive approach to combating security threats. Five AI agents, powered by Qwen, will automate security operations—from alert assessment to execution—with intelligent analysis, event correlation, and actionable reporting for end-to-end threat management. The new function has effectively increased the automated incident investigation success rate from 59% to 74%, while handling 70% automated response actions without human intervention.

Container: Alibaba Cloud has upgraded its Container Compute Services (ACS) to enhance its auto-scaling capabilities through optimized scheduling and container image cache acceleration technologies. This enables elasticity, supporting the scaling of up to 15,000 pods per minute to handle massive, highly concurrent agent requests. Besides, the ACS container sandbox technology provides strong isolation by separating user space from the runtime environment, preventing vulnerabilities or data leaks in one agent from affecting others.

Database: Alibaba Cloud has upgrades its PolarDB database, optimizing for combined data and AI workloads. The upgrade has introduced a hardware innovation powered by Compute Express Link (CXL) technology, a highly efficient compute-memory interconnect to reduces latency by 72.3%, boosting memory scalability by 16x and laying a solid foundation for data and AI workload. The upgraded PolarDB also introduced a new Lakebase architecture with hybrid storage include lake, operational database and metadata for storing popular open-data formats including Lance, Iceberg and Apache Hudi and lowering storage cost, enabling efficient multimodal data storage and management.

Platform for AI (PAI): Alibaba Cloud’s PAI introduced synergistic optimizations to advance large model development into the agentic AI era. Its novel MoE training acceleration improves Qwen series training by over 300%, while the upgraded DiT training engine reduces Wan series' single-sample training time by 28.1%. Enhanced inference delivers 71% higher TPS, 70.6% lower TPOT latency, and 97.6% faster infrastructure scaling.



###




خبر صحفي



"علي بابا كلاود" تكشف عن خريطة طريق استراتيجية لابتكارات الجيل التالي من الذكاء الاصطناعي



تقديم عروض متكاملة تمتد من نماذج الذكاء الاصطناعي إلى تطوير مؤهلات الوكلاء ومنصات التطبيقات والبنية التحتية المحدّثة خلال مؤتمر أبسارا 2025



29 سبتمبر 2025: كشفت "علي بابا كلاود" اليوم عن أحدث ابتكاراتها في مجال الذكاء الاصطناعي الشامل خلال مؤتمرها التكنولوجي السنوي الرائد "أسبارا 2025". ويغطي الإعلان كلًا من نماذج اللغة الكبيرة من الجيل التالي من عائلة Qwen3، والنماذج المقبلة من الجيل البصري Wan 2.5، والمنصات المحسّنة الخاصة بتطوير مؤهلات الوكلاء والتطبيقات، إلى جانب تحديثات رئيسية مخصصة لبنية الذكاء الاصطناعي، مما يعزز مكانة الشركة عالمياً في عصر الذكاء الاصطناعي الجديد.



وقال إدي وو، رئيس مجلس الإدارة والرئيس التنفيذي لشركة علي بابا كلاود للذكاء الاصطناعي: "سيجري في المستقبل دمج نماذج الذكاء الاصطناعي الكبيرة بشكل عميق في مجموعة واسعة من الأجهزة، لتؤدي دور أنظمة التشغيل - مزودة بذاكرة دائمة، وتنسيق سلس بين السحابة وأجهزة التشغيل النهائية، والقدرة على التطور المستمر. نحن لا نزال ملتزمين بفتح مصدر Qwen وتشكيله ليصبح بمثابة نظام تشغيل عصر الذكاء الاصطناعي، الأمر الذي يمكّن المطورين في مختلف أنحاء العالم من بناء تطبيقات تحويلية للذكاء الاصطناعي".



وأضاف وو: "بموازاة ذلك، تتمتع علي بابا كلاود بمكانة استراتيجية كمزود شامل لخدمات الذكاء الاصطناعي، بجهد مكرّس لتقديم حوسبة قوية ذات كفاءة قصوى لتدريب نماذج الذكاء الاصطناعي الكبيرة على السحابة ونشرها. ولإبراز التزامنا طويل الأمد بدفع الذكاء الاصطناعي قدماً، سنمضي في خطة استثماراتنا التي تبلغ قيمتها 380 مليار يوان صيني في مجال الذكاء الاصطناعي والبنية التحتية السحابية على مدى السنوات الثلاث المقبلة".



ومنذ إطلاق الجيل الأول من Qwen في العام 2023، عمدت علي بابا إلى فتح مصدر أكثر من 300 نموذج ذكاء اصطناعي مبني على نموذجيها الأساسيين: نموذج اللغة الكبير Qwen ونموذج التوليد البصري Wan. وفي ظلّ أكثر من 600 مليون عملية تنزيل وأكثر من 170 ألف نموذج مشتق تم إنشاؤه، أصبحت نماذج علي بابا للذكاء الاصطناعي من أكثر سلاسل الذكاء الاصطناعي مفتوحة المصدر استخداماً على مستوى العالم، حيث أن أكثر من مليون شركة وفرد استخدموا Qwen على منصة Model Studio، منصة تطوير الذكاء الاصطناعي التابعة لشركة علي بابا.



الكشف عن Qwen3-Max: أقوى نماذج اللغة الكبيرة والواسعة النطاق من علي بابا حتى تاريخه



أطلقت علي بابا رسمياً Qwen3-Max، الذي يعدّ أكبر نموذج لديها خاص باللغات الكبيرة والواسعة النطاق، مع أكثر من تريليون عامل متغيّر. وبفضل وضعيتي التشغيل Instruct و Thinking، يحقق النموذج أداءً مذهلًا على امتداد مجموعة واسعة من المقارنات المعيارية، خاصة على صعيد توليد الشيفرة البرمجية والقدرات الوكيلة. وبالنسبة إلى وضعية Instruct، حصل النموذج على 69.6 على معيار SWE-Bench، وهو عبارة عن مقارنة معيارية مرجعية موثوقة لتقييم نماذج اللغات الكبيرة والواسعة النطاق عند مواجهة مشكلات واقعية ملموسة على مستوى البرامج، إلى جانب بعض النماذج الرائدة ذات المصدر المغلق. كما تم تسجيل أداء رائع على معيار Tau2-Bench، وهو عبارة عن مقارنة معيارية مرجعية لتقييم الوكلاء التخاطبيين، مظهرًا كفاءة استثنائية في استخدام الأدوات، وهي قدرة أساسية من أجل بناء مؤهلات وكلاء أذكياء بتوجيه مركّز نحو العمل.


يحقق نموذج Qwen3-Max أداءً مذهلاً على امتداد المقارنات المعيارية المختلفة



كما تم خلال المؤتمر الكشف عن سلسلة من نماذج Qwen3 التي تغطي اللغة البصرية والمعالجة متعددة الوسائط.

Qwen3-VL: يعد النموذج الأكثر قدرة في مجال اللغة البصرية ضمن عائلة Qwen حتى تاريخه، حيث تتيح بنيته الهندسية المكونة من خليط من الخبراء Mixture-of-Experts (MoE) نشراً مرناً من أجهزة التشغيل النهائية (أجهزة الحافة) إلى بيئات السحابة عالية الأداء. ومن خلال وظيفته التشغيلية كوكيل بصري، يمكن لنموذج Qwen3-VL العمل على واجهات الكمبيوتر والهواتف المحمولة على حد سواء، وهو رائد في مجال البرمجة البصرية عبر توليد شيفرات برمجية مباشرة من الصور أو مقاطع الفيديو، مما يؤدي وبشكل فعال إلى تحويل التصميمات البصرية إلى تطبيقات تشغيلية. كما تدعم قدرته على الفهم المكاني القاعدة الأساس ثلاثية الأبعاد بموازاة تحسين الإدراك للاتجاه والمسافة على نحو يرسي الأساس الحيوي لصالح الذكاء الاصطناعي المجسّد والملاحة المكانية في العالم الحقيقي. ويتوفر نموذج Qwen3-VL-235B-A22B في وضعيتي Instruct وThinking، محققاً أداءً ملفتاً في المقارنات المعيارية للإدراك البصري والتفكير الاستدلالي متعدد الوسائط.

Qwen3-Omni: نموذج شامل متعدد اللغات قادر على معالجة المدخلات النصية والصور والملفات الصوتية وملفات الفيديو، بالتزامن مع تقديم استجابة فورية على صعيد كل من النص والكلام المحكي الطبيعي. ويقدم نموذج Qwen3-Omni، مدعوماً بالبنية الهيكلية المبتكرة للتفكير والتحدث بواسطة خليط من الخبراء Thinker–Talker MoE، ومستفيداً من تدريب مسبق على 20 مليون ساعة من البيانات الصوتية، أداءً استثنائياً في فهم المدخلات الصوتية (حتى 30 دقيقة) والمحادثات القائمة على الفيديو، كل ذلك من دون المساومة على قدراته القوية في معالجة النصوص والصور. كما يحقق تفاعلاً متعدد الوسائط في الوقت الفعلي، مع تحقيق زمن انتقال منخفض جداً – مما يجعله حلاً مثالياً للتفاعل البديهي من دون استخدام اليدين في مقصورات القيادة الذكية، والنظارات الذكية، والهواتف المحمولة. وقد أصبح نموذج Qwen3-Omni-30B-A3B متاحاً حالياً كمصدر مفتوح على Hugging Face ومجتمع ModelScope التابع لشركة علي بابا. وبإمكان المستخدمين أيضاً الوصول إلى Qwen3-Omni-Flash على Qwen Chat، وهو عبارة عن تطبيق على الشبكة المعلوماتية يتيح للمستخدمين تجربة نماذج Qwen المختلفة.



بالإضافة إلى ما سبق، تمّ تحديث نموذج رمز التشفير Qwen3-Coder ونموذج التصحيح Qwen3-Image-Edit بشكل كبير. يحقق نموذج Qwen3-Coder الجديد سرعة استدلال أسرع، وأماناً محسّناً على صعيد الرموز المشفرة، بينما تم تحديث نموذج Qwen3-Image-Edit بغرض دعم تعديل الصور المتعددة، بموازاة اعتماد تحسين كبير في الاتساق البصري.



كما كشفت علي بابا عن Fun، وهي عبارة عن عائلة من نماذج اللغة المحكية الكبيرة والواسعة النطاق والتي جرى تزويدها بقدرات متقدمة للتعرف على الكلام بلغات متعددة. وتتضمن هذه السلسلة Fun-ASR، وهو نموذج شامل للتعرف التلقائي على الكلام (ASR)، تم تطويره للاستخدام الفعلي في المؤسسات، و Fun-CosyVoice، وهو نموذج عالي الجودة لتوليف الكلام التعبيري، وقد جرى تصميمه لتوليد مخرجات صوتية طبيعية بلغات متعددة.



لمحة عامة عن Wan2.5: يرفع مستوى إنشاء محتوى الوسائط المتعددة



استعرضت علي بابا كذلك أربعة نماذج من Wan2.5، بما في ذلك أحدث نماذجها لتوليد ملفات الفيديو، ونموذجاً لتوليد الصور، ونموذجاً آخر لتحرير الصور. وتدعم نماذج توليد الفيديو بشكل أساسي توليد صوت يتميز بدقة عالية لصالح ملف الفيديو، مما يضاعف المدة من 5 إلى 10 ثوانٍ، بشكل يؤمّن سرداً أكثر اكتمالاً وتماسكاً بموازاة جودة بصرية معززة. وتتميز النماذج ببنية هيكلية متعددة الوسائط مدمجة في الأساس، حيث تخضع للتدريب بشكل مشترك على التعامل مع البيانات النصية والصوتية والمرئية. وهذا يتيح توليداً متوافقاً ومتعدد الوسائط، الأمر الذي يضمن المزامنة ما بين المحتوى الصوتي والمحتوى المرئي، وتحسين فهم التعليمات من أجل متابعة مطالبات المستخدم عن كثب.



إطار عمل تطويري جديد لتفعيل نشر الوكلاء بشكل معزز



من أجل تحسين الكفاءة على صعيد توزيع وكلاء الذكاء الاصطناعي على نطاق واسع، تم أخيراً إضافة إطار عمل تطويري إلى منصة Model Studio، أي إلى منصة تطوير الذكاء الاصطناعي من علي بابا كلاود. ويتميز إطار العمل الجديد بتضمّنه Model Studio-ADK (مجموعات أدوات تطوير الوكلاء)، وهو إطار عمل تطويري يتميز برمز مشفّر عالي الدقة للمهنيين المحترفين لدى المؤسسات والذي يفك ألغاز الاحتياجات التجارية المعقدة، ويحوّلها إلى منطق وكيلي قابل للتنفيذ من أجل تمكين التطوير السريع لصالح وكلاء الذكاء الاصطناعي المتمرسين ورفيعي المستوى، عبر مدّهم بقدرات اتخاذ القرار بشكل مستقل، واعتماد التفكير الديناميكي، والتمتع بقدرات تنفيذ المهمات. كما يمكن للمستخدمين إنشاء مشروع للبحث المعمق DeepResearch أو الاسترجاع المعزز بالتوليد Agentic RAG (Retrieval-Augmented Generation) في غضون ساعة من الوقت، باستخدام هذه المجموعة القوية من الأدوات. كما استفادت منصة Model Studio من تحديث منصة التطوير ذات الرمز المشفّر المنخفض Model Studio-ADP (منصة تطوير الوكلاء)، مما يتيح للمستخدمين من ذوي الخلفية المحدودة في البرمجة، القيام بسهولة بإنشاء وكلاء ذكاء اصطناعي مبسّطين من مختلف النواحي.



وبغرض التعامل مع التحديات الرئيسية التي تواجهها الشركات، مثل معالجة البيانات من مصادر متعددة، والقيود على الموارد، والنشر على امتداد بيئات مختلفة، يقدم نموذج Model Studio Agent مجموعة من الميزات على مستوى المؤسسات، وتشمل تأمين سلاسة الاتصال عبر اعتماد بروتوكول سياق النموذج (MCP)، والاسترجاع المعزز بالتوليد RAG، وجدولة الاستدلال الديناميكي، وخدمة "الصندوق الرملي" ضمن بيئة معزولة وآمنة، بشكل يسمح للشركات بتسريع اعتماد وكلاء الذكاء الاصطناعي.



وبإمكان المستخدمين حالياً الوصول إلى أكثر من 200 نموذج رائد في الصناعة عبر منصة Model Studio، بما في ذلك نماذج Qwen و Wan التي طورتها شركة علي بابا بنفسها. وقد تمّ إنشاء أكثر من 800 ألف وكيل على منصة Model Studio، بما يضمن دعم سيناريوهات متنوعة تتراوح ما بين إنشاء المحتوى والتسويق الذكي وصولًا إلى إدارة المنزل الذكي وتحسين الإنتاج. وعلى مدار الأشهر الاثني عشر الماضية، زاد عدد استدعاءات النماذج عبر منصة Model Studio بمقدار 15 ضعفاً، الأمر الذي يعكس الطلب المتنامي على حلول الذكاء الاصطناعي القوية والقابلة للتطوير.



منصات ذكاء اصطناعي مبتكرة لدعم الشركات والمخترعين المبدعين



بعد إطلاقها في يوليو، عمدت علي بابا لإدخال تحديثات كبيرة على AgentBay، وهي عبارة عن بيئة تشغيل متعددة الوسائط قائمة على السحابة، ومنصة للوكلاء الخبراء، لصالح المؤسسات والمطورين وشركاء الذكاء الاصطناعي. وتساعد الميزات الجديدة - المحرك الذاتي التطور، وصور الحاويات المخصّصة، وضوابط السلامة والامتثال المدمجة – في تحويل الوكلاء، من مساعدين بسيطين مدعومين بنموذج ذكاء اصطناعي واحد، إلى عمّال متعددي الوسائط يشبهون الإنسان، بحيث يمكنهم إنجاز المهام المطلوبة من الألف إلى الياء.



وبهدف تلبية الطلب المتزايد من قبل الشركات على النمو المدفوع بالذكاء الاصطناعي، أطلقت علي بابا كلاود أيضاً Lingyang AgentOne، وهي عبارة عن منصة تطبيقات ذكاء اصطناعي شاملة للشركات، تتيح للمؤسسات الانتقال من الاستجابة التفاعلية إلى تطبيق مبدأ الذكاء الاستباقي. وتقدّم Lingyang AgentOne، مدعومة بنماذج Qwen من علي بابا، وهي متكاملة بشكل كبير مع منظومة عمل علي بابا، مساحة عمل شاملة من أجل تطوير مؤهلات الوكلاء بشكل يتيح التواصل مع الأنظمة الحالية وتسريع الوقت اللازم لتحقيق القيمة. ومن خلال حلول قائمة على السيناريوهات على امتداد مجالات التسويق والتحليلات وخدمة العملاء والعمليات التشغيلية، تربط منصة Lingyang AgentOne سلسلة القيمة الكاملة، قبل مرحلة البيع، وفي أثنائها، وبعدها، بغرض تقديم نتائج قابلة للقياس، وجاهزة للإنتاج لصالح قطاعات عمل مثل تحسين المنازل، والتجارة الإلكترونية.



بالإضافة إلى ذلك، قامت منصة تطبيقات الذكاء الاصطناعي الموجهة للمستهلكين التابعة لشركة علي بابا، Quark، بإطلاق منصة Zaodian، وهي منصة متكاملة لإنشاء الصور والفيديوهات باستخدام تقنية الذكاء الاصطناعي، تدمج نماذج الذكاء الاصطناعي الرائدة في الصناعة على غرار نموذج Wan الرائد من علي بابا لتوليد الفيديوهات، من أجل تقديم تجربة احترافية وفعّالة لصالح المخترعين المبدعين. وبصرف النظر عن وظائف تحويل النص المكتوب إلى فيديو بصري، وتحويل الصورة الجامدة إلى فيديو متحرّك، والتي يدعمها نظام Wan، تُوفر Zaodian أيضًا وظائف إنشاء الصور، وتعديلها باستخدام الذكاء الاصطناعي مع أفضل الخيارات من النماذج الرائدة. وبإمكان المخترعين المبدعين تجربة خدمة المنصة على الموقع الإلكتروني zaodian.quark.cn أو عبر إدخال "صورة مولّدة بالذكاء الاصطناعي" (AI Image) في إصدار Quark المخّصّص للعمل المكتبي.





البنية التحتية للذكاء الاصطناعي من الجيل التالي للذكاء الاصطناعي الوكيل



خلال المؤتمر، كشفت الشركة الرائدة في مجال الحوسبة السحابية أيضًا عن مجموعة شاملة ومتكاملة من التحسينات المبتكرة للبنية التحتية المصممة خصيصًا لدعم المشهد العام الناشئ للذكاء الاصطناعي الوكيل.

التخزين: عززت علي بابا كلاود خدمتها المخصّصة لتخزين الكائنات (OSS) بواسطة "Vector Bucket"، وهي ميزة مدعومة بالذكاء الاصطناعي تتيح تخزين البيانات المتجهة والواسعة النطاق واسترجاعها، بتكلفة فعّالة – وهي ميزة محسّنة انطلاقًا من تطبيقات الاسترجاع المعزز بالتوليد RAG والذكاء الاصطناعي. وهي توحّد إدارة البيانات الأولية والمتجهة في خدمة تخزين الكائنات، والتي يمكن الوصول إليها عبر واجهات برمجة التطبيقات القياسية، بشكل يُبسّط تطوير منصة الاسترجاع المعزز بالتوليد القابلة للتطوير، وتنظيم أصول الوسائط المتعددة. وهي تساعد كذلك على خفض تكلفة تطوير الذكاء الاصطناعي عبر السماح لشركات الأعمال بإدارة البيانات الأولية والمتجهة في موقع واحد - ممّا يُخفّض من التعقيدات ويُسرّع نشر تطبيقات الاسترجاع المعزز بالتوليد.

الترابط الشبكي: كشفت علي بابا كلاود عن أحدث بنياتها الهندسية المخصّصة للشبكات عالية الأداء - HPN8.0، وهي شبكة مصمّمة خصيصًا لصالح نماذج الذكاء الاصطناعي. يُتيح هذا الابتكار تأمين سلاسة تدريب النماذج، والاستدلال، والتعلم المعزّز (RL)، على امتداد أحمال العمل الحسابية المختلطة، بالتزامن مع دعم عمليات النشر على نطاق واسع جدًا. توفّر البنية الهندسية سرعة نقل بيانات تبلغ 800 جيجابت في الثانية، بشكل يضاعف القدرة مقارنة بالجيل السابق.

الأمان: من ضمن التحديثات المهمة الأخرى برزت إضافة وظيفة وكيلة مدعومة بالذكاء الاصطناعي إلى حل الاستجابة للكشف عن التهديدات السحابية (CTDR) الخاص بها. يعزّز هذا التحسين الأمني السحابي الأصلي قدرات الكشف والتحليل والاستجابة، ممّا يؤمّن نهجًا أكثر ذكاءً واستباقية لمكافحة التهديدات الأمنية. ستعمل خمسة عوامل ذكاء اصطناعي، مدعومة من Qwen، على أتمتة عمليات الأمان – من مرحلة تقييم التنبيهات إلى مرحلة التنفيذ – في ظلّ التحليل الذكي، والربط ما بين الأحداث، وإعداد التقارير القابلة للتنفيذ، من أجل إدارة التهديدات من البداية إلى النهاية. وقد أسفرت الوظيفة الجديدة عن زيادة معدّل نجاح نظام التحقيق الآلي في الحوادث بشكل فعّال، وتحديدًا من 59% إلى 74%، بموازاة معالجة 70% من إجراءات الاستجابة الآلية من دون أي تدخّل بشري.

الحاوية: قامت علي بابا كلاود بتحديث خدمات حوسبة الحاويات (ACS) من أجل تعزيز قدراتها على التوسع التلقائي بواسطة تقنيات الجدولة المحسّنة، وتقنيات تسريع ذاكرة التخزين الموَقّت لصور الحاويات. ويضمن هذا الأمر المرونة، مع دعم التوسع إلى ما يبلغ 15 ألف وحدة في الدقيقة من أجل التعامل مع طلبات الوكلاء الضخمة والمتزامنة. وبالإضافة إلى ذلك، توفر خدمة حوسبة الحاويات العزل القوي عبر فصل مساحة المستخدم عن بيئة التشغيل، بشكل يحول دون أن يطال تأثير مواجهة ثغرات أمنية أو حصول تسرّب للبيانات لدى أحد الوكلاء، المُستخدمين الآخرين.

قاعدة البيانات: قامت علي بابا كلاود بتحديث قاعدتها الخاصة بالبيانات PolarDB، الأمر الذي فعّل أداء البيانات المدمجة وأحمال عمل الذكاء الاصطناعي. وقد أدخل التحديث ابتكارًا على الأجهزة مدعومًا بتقنية Compute Express Link (CXL)، وهي تقنية ربط واتصال بين الذاكرة والحوسبة تتميّز بكفاءة عالية، حيث تُقلّل زمن الاستجابة بنسبة 72.3%، بموازاة تحسين قابلية توسيع الذاكرة بمقدار 16 ضعفًا، وترسي أساساً متيناً لأحمال عمل البيانات والذكاء الاصطناعي. كما أدخلت PolarDB المحدّثة بنية هندسية جديدة باسم Lakebase تتمتّع بتخزين هجين يشمل نظام التخزين المعلوماتي المركزي (lake)، وقاعدة بيانات تشغيلية وبيانات وصفية لتخزين تنسيقات البيانات المفتوحة الشائعة، بما في ذلك Lance و Iceberg و Apache Hudi وخفض تكلفة التخزين، بشكل يُتيح تخزين وإدارة البيانات متعددة الوسائط بكفاءة.

منصة الذكاء الاصطناعي (PAI): قدمت منصة علي بابا كلاود للذكاء الاصطناعي تحسينات بغرض دعم تطوير النماذج الكبيرة في عصر الذكاء الاصطناعي الوكيل. وتعمل تقنية MoE المبتكرة لتسريع التدريب عبر خليط من الخبراء، على تحسين تدريب سلسلة Qwen بنسبة تزيد عن 300%، بينما يقلل محرك التدريب DiT المحدّث من الوقت اللازم للتدريب على عينة واحدة لسلسلة Wan بنسبة 28.1%. ويوفر الاستدلال المحسّن إنتاجية أعلى في الثانية TPS بنسبة 71%، ووقت استجابة للزمن المطلوب لكل رمز إنتاج TPOT أقل بنسبة 70.6%، مع توسيع نطاق البنية التحتية بوتيرة أسرع بنسبة 97.6%.



انتهى


=