21 February, 2023

Five Guidelines for Trusted Generative AI

 

By Thierry Nicault, Area Vice President – Middle East and North Africa, Salesforce

 

Like all of our innovations, we are embedding ethical guardrails and guidance across our products to help customers innovate responsibly — and catch potential problems before they happen.

 

Given the tremendous opportunities and challenges emerging in this space, we’re building on our Trusted AI Principles with a new set of guidelines focused on the responsible development and implementation of generative AI.

 

We are still in the early days of this transformative technology, and these guidelines are very much a work in progress — but we’re committed to learning and iterating in partnership with others to find solutions.

 

Below are five guidelines we’re using to guide the development of trusted generative AI, here at Salesforce and beyond.

 

1.     Accuracy: We need to deliver verifiable results that balance accuracy, precision, and recall in the models by enabling customers to train models on their own data. We should communicate when there is uncertainty about the veracity of the AI’s response and enable users to validate these responses. This can be done by citing sources, explainability of why the AI gave the responses it did (e.g., chain-of-thought prompts), highlighting areas to double-check (e.g., statistics, recommendations, dates), and creating guardrails that prevent some tasks from being fully automated (e.g., launch code into a production environment without a human review).

 

2.     Safety: As with all of our AI models, we should make every effort to mitigate bias, toxicity, and harmful output by conducting bias, explainability, and robustness assessments, and red teaming. We must also protect the privacy of any personally identifying information (PII) present in the data used for training and create guardrails to prevent additional harm (e.g., force publishing code to a sandbox rather than automatically pushing to production).

 

3.     Honesty: When collecting data to train and evaluate our models, we need to respect data provenance and ensure that we have consent to use data (e.g., open-source, user-provided). We must also be transparent that an AI has created content when it is autonomously delivered (e.g., chatbot response to a consumer, use of watermarks).

 

4.     Empowerment: There are some cases where it is best to fully automate processes but there are other cases where AI should play a supporting role to the human — or where human judgment is required. We need to identify the appropriate balance to “supercharge” human capabilities and make these solutions accessible to all (e.g., generate ALT text to accompany images).

 

5.     Sustainability: As we strive to create more accurate models, we should develop right-sized models where possible to reduce our carbon footprint. When it comes to AI models, larger doesn’t always mean better: In some instances, smaller, better-trained models outperform larger, more sparsely trained models.

 

Learn more about Trusted AI at Salesforce, including the tools we deliver to our employees, customers, communities, and partners for developing and using AI responsibly, accurately, and ethically.



سيلزفورس: 5 مبادئ للذكاء الاصطناعي الموثوق

 

دبي، الإمارات العربية المتحدة، 20 فبراير 2023كشفت شركة «سيلزفورس» اليوم عن المبادئ الرئيسية التي يجب اعتمادها في مجال تطوير الذكاء الاصطناعي الموثوق، وأكدت على لسان تيري نيكول، نائب الرئيس لمنطقة الشرق الأوسط وشمال إفريقيا، بأن الشركة تعمل باستمرار على دمج المبادئ والضوابط الأخلاقية في كافة منتجاتها من أجل مساعدة العملاء على الابتكار ومواجهة أي تحديات محتملة بشكل استباقي، سيرا على نهجها في جميع الابتكارات التي تطرحها.

 

وقال تيري نيكول بأنه في ضوء الفرص والتحديات الضخمة الناشئة في هذا المجال تعتبر مجموعة المبادئ التوجيهية الجديدة خطوة متقدمة عما سبق واعتمدته الشركة من مبادئ في تطوير الذكاء الاصطناعي الموثوق مع إيلاء التركيز هنا على التطوير والتنفيذ المسؤول لتقنيات الذكاء الاصطناعي التوليدي، منوها بأن هذه المبادئ لا تزال تشهد المزيد من العمل لمواكبة الخطوات الأولية التي تسير عليها تقنيات الذكاء الاصطناعي التحولية، وأكد في هذا السياق التزام الشركة نحو التعلم والاستفادة من التجارب والتعاون مع الآخرين من أجل التوصل إلى الحلول.

 

وفيما يلي مجموعة المبادئ الخمس لضمان موثوقية الذكاء الاصطناعي:

 

  1. الدقةيجب تقديم نتائج في الذكاء الاصطناعي يمكن التثبت منها وتحقق الموازنة بين معدلات الدقة والصحة والإرجاع في النماذج وذلك بتمكين العملاء من تدريب تلك النماذج باستخدام بياناتهم الخاصة. ويجب فتح قنوات التواصل بين جميع الأطراف في حالات عدم اليقين بشأن سلامة ردود الذكاء الاصطناعي وتمكين المستخدمين من التأكد بأنفسهم من هذه الردود. ويمكن القيام بذلك من خلال إيراد المصادر وتبرير أسباب إعطاء الذكاء الاصطناعي الردود التي قدمها (على سبيل المثال، اقتفاء جميع المراحل الاستدلالية التي اتبعها من أجل التوصل إلى الردود) مع تسليط الضوء على الجوانب التي يجب التحقق منها مرة أخرى (على سبيل المثال، الإحصاءات والتوصيات والتواريخ)، ونشر ضوابط تحول دون تنفيذ بعض الأفعال بشكل مؤتمت بالكامل (مثل تنفيذ البرمجيات ضمن البيئة الإنتاجية دون إشراف بشري).

 

  1. السلامةكما هو حال جميع نماذج الذكاء الاصطناعي، يجب بذل قصارى الجهود من أجل التخفيف من التحيز واللغة المسيئة والمخرجات الضارة من خلال إجراء تقييمات بشأن التحيز ومسببات الردود ومتانة النماذج مع إطلاق اختبارات محايدة لتعقب واكتشاف الثغرات. ويجب أيضًا حماية خصوصية أي معلومات تعريف شخصية موجودة في البيانات المستخدمة في التدريب، وإنشاء ضوابط للوقاية من وقوع أضرار إضافية (مثل فرض نشر البرمجيات في بيئة معزولة بدلاً من الدفع بها تلقائيًا إلى البيئة الإنتاجية).

 

  1. الأمانة: يجب احترام مصادر البيانات والتأكد من الحصول على الموافقة عند استخدام البيانات (مثل المصادر المفتوحة أو مصادر المستخدم). ويجب التحلي بالشفافية وذلك بالإشارة إلى أن منشأ المحتوى هو الذكاء الاصطناعي عندما يتم تقديمه بشكل ذاتي (على سبيل المثال، عند استجابة المساعد الافتراضي للمستهلك واستخدام الوسوم المميزة).

 

  1. التمكين: يجب التمييز بين الحالات التي يستحسن فيها أتمتة العمليات بالكامل والحالات الأخرى التي يجب أن يمارس فيها الذكاء الاصطناعي دورًا داعما للإنسان. ويجب تحديد أفضل توازن بين الرغبة في دعم القدرات البشرية لأقصى درجة وجعل حلول الذكاء الاصطناعي متاحة في متناول الجميع (مثل إنشاء نصوص بديلة للتعريف بمحتوى الصور لمن لا يستطيع رؤيتها).

 

  1. الاستدامة: بالتزامن مع العمل على إنشاء نماذج أكثر دقة، يجب تطوير نماذج في الذكاء الاصطناعي تمتاز بحجم مناسب قدر الإمكان من أجل تقليل البصمة الكربونية. وفي سياق نماذج الذكاء الاصطناعي، فإن الحجم الأكبر لا يعني دائمًا الأفضل وذلك لأنه في بعض الحالات تتفوق النماذج الأصغر والأفضل تدريباً على النماذج الأكبر والأقل تدريباً.

 


=