مايكروسوفت تكشف عن أدوات أمان جديدة للذكاء الاصطناعي

كشفت شركة مايكروسوفت عن تصميمها العديد من مزايا الأمان الجديدة من السهل استخدامها لعملاء خدمة الحوسبة السحابية /أزور – Azure/ الذين لا يختبرون خدمات الذكاء الاصطناعي التي بنوها.

وقالت سارة بيرد، كبيرة مسؤولي منتجات الذكاء الاصطناعي في مايكروسوفت: “إن هذه الأدوات العاملة بالنماذج اللغوية الكبيرة يمكنها اكتشاف نقاط الضعف المحتملة، ومراقبة الهلوسة المقبولة، وحظر المطالبات الضارة في الوقت الفعلي لعملاء /Azure AI/ الذين يعملون مع أي نموذج مستضاف عبر المنصة”.

وأضافت أن تلك الأدوات “تساعد في تجنب الخلافات بخصوص الذكاء الاصطناعي التوليدي الناجمة عن الاستجابات غير المرغوب فيها أو غير المقصودة، مثل الاستجابات التي تتضمن صورا مزيفة صريحة للمشاهير، أو الصور غير الدقيقة تاريخيا”.

وأشارت بيرد إلى أنه يمكن لمستخدمي /Azure/ في المستقبل الحصول على تقرير بالمستخدمين الذين يحاولون تشغيل مخرجات غير آمنة، لافتة إلى أن أدوات الأمان ترتبط مباشرة بالنموذج اللغوي الكبير للذكاء الاصطناعي التوليدي /تشات جي بي تي 4 – GPT-4/، والنماذج الشائعة الأخرى، مثل /Llama 2/.

وأوضحت بيرد إلى أن شركة / مايكروسوفت/ تتجه إلى الذكاء الاصطناعي لتعزيز سلامة وأمان برامجها، وخاصة مع تزايد اهتمام العملاء باستخدام /Azure/ للوصول إلى نماذج الذكاء الاصطناعي.

أضف تعليق

Your email address will not be published.

آخر المقالات من عرب تريبيون