Close Menu
الشرق تايمزالشرق تايمز
  • الرئيسية
  • اخر الاخبار
  • العالم
  • سياسة
  • اسواق
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • سياحة وسفر
  • صحة وجمال
  • مقالات
  • منوعات
روابط هامة
  • الرئيسية
  • سياسة الخصوصية
  • من نحن
  • إعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام يوتيوب
الشرق تايمزالشرق تايمز  اختر منطقتك
|
               
  حالة الطقس
الشرق تايمزالشرق تايمز
الرئيسية»اسواق
اسواق

Microsoft لتصنيف “سلامة” نماذج الذكاء الاصطناعى المباعة لعملاء السحابة

الشرق برسالشرق برسالسبت 07 يونيو 1:19 ملا توجد تعليقات
فيسبوك تويتر بينتيريست واتساب تيلقرام البريد الإلكتروني

فتح Digest محرر مجانًا

تختار رولا خالاف ، محررة FT ، قصصها المفضلة في هذه النشرة الإخبارية الأسبوعية.

ستبدأ Microsoft في ترتيب نماذج الذكاء الاصطناعي بناءً على أدائها على السلامة ، حيث تسعى مجموعة البرمجيات إلى بناء الثقة مع عملاء السحابة لأنها تبيع عروض الذكاء الاصطناعي من أمثال Openai و Elon Musk's Xai.

وقالت سارة بيرد ، رئيسة شركة Microsoft المسؤولة ، إن الشركة ستضيف قريبًا فئة “أمان” إلى “المتصدرين النموذجيين” ، وهي ميزة أطلقتها للمطورين هذا الشهر لتصنيف التكرارات من مجموعة من مقدمي الخدمات بما في ذلك Deepseek في الصين و France Misstral.

من المتوقع أن تؤثر اللوحة المتصدرين ، التي يمكن الوصول إليها من قبل عشرات الآلاف من العملاء الذين يستخدمون منصة Azure Foundry Developer ، التي يتم شراؤها من خلال Microsoft.

تصنف Microsoft حاليًا ثلاث مقاييس: الجودة والتكلفة والإنتاجية ، وهي مدى سرعة إنشاء النموذج. أخبر بيرد صحيفة “فاينانشال تايمز” أن تصنيف السلامة الجديد سيضمن “أن يتمكن الأشخاص من التسوق مباشرة وفهم” قدرات نماذج الذكاء الاصطناعى أثناء تقررهم أيها الشراء.

يأتي قرار تضمين معايير السلامة في الوقت الذي يتصارع فيه عملاء Microsoft مع المخاطر المحتملة التي تشكلها نماذج جديدة من الذكاء الاصطناعى إلى حماية البيانات وحماية الخصوصية ، لا سيما عند نشرها كـ “عوامل” مستقلة يمكنها العمل دون إشراف بشري.

سيستند مقياس السلامة الجديد من Microsoft إلى معايير توكسين الخاصة به ، والذي يقيس خطاب الكراهية الضمني ، ومركز الأسلحة الخاصة بأسلحة AI Safety of Massy Presy. يقيم الأخير ما إذا كان يمكن استخدام نموذج لأغراض ضارة مثل بناء سلاح كيميائي حيوي.

تمكن التصنيفات من المستخدمين من الوصول إلى مقاييس موضوعية عند الاختيار من فهرس من أكثر من 1900 نموذج من الذكاء الاصطناعي ، حتى يتمكنوا من اتخاذ خيار مستنير لاستخدامه.

وقال كاسي كوزيركوف ، مستشار وكبير القرار السابق في جوجل: “يمكن لوحات قادة السلامة أن تساعد الشركات على قطع الضوضاء وتضيق الخيارات”. “التحدي الحقيقي هو فهم المقايضات: الأداء الأعلى بأي تكلفة؟ انخفاض التكلفة في أي خطر؟”

إلى جانب Amazon و Google ، تعتبر المجموعة التي تتخذ من سياتل مقراً لها واحدة من أكبر “فرط الشؤون” التي تهيمن على سوق السحابة معًا.

تقوم Microsoft أيضًا بوضع نفسها كمنصة لاأدري لـ AI التوليدي ، حيث توقيع صفقات لبيع النماذج من قبل XAI والأنثروبور ، منافسين لبدء Openai الذي تم دعمه بحوالي 14 مليار دولار في الاستثمار.

في الشهر الماضي ، قالت Microsoft إنها ستبدأ في تقديم عائلة من عائلة Xai Grok من النماذج بموجب نفس المصطلحات التجارية مثل Openai.

جاءت هذه الخطوة على الرغم من أن إصدارًا من Grok يثير التنبيه عندما أدى “التعديل غير المصرح به” من رمزها إلى الرجوع مرارًا وتكرارًا إلى “الإبادة الجماعية البيضاء” في جنوب إفريقيا عند الاستجابة للاستفسارات على موقع التواصل الاجتماعي X. قال Xai إنها قدمت سياسة مراقبة جديدة لتجنب الحوادث المستقبلية.

وقال بيرد: “تأتي النماذج في منصة ، وهناك درجة من المراجعة الداخلية ، ثم الأمر متروك للعميل لاستخدام المعايير لمعرفة ذلك”.

لا يوجد معيار عالمي لاختبار سلامة الذكاء الاصطناعي ، لكن قانون الذكاء الاصطناعي للاتحاد الأوروبي سيدخل القوة في وقت لاحق من هذا العام ويجبر الشركات على إجراء اختبارات السلامة.

يكرس بعض بناة النماذج بما في ذلك Openai وقتًا أقل وأموالًا لتحديد المخاطر وتخفيفها ، وقد تم الإبلاغ عن FT سابقًا عن العديد من الأشخاص على دراية بعمليات السلامة في بدء التشغيل. وقالت الشركة الناشئة إنها حددت الكفاءة دون المساس بالسلامة.

رفض بيرد التعليق على اختبار السلامة في Openai ، لكنه قال إنه من المستحيل شحن نموذج عالي الجودة دون استثمار “مبلغ ضخم” في التقييم وأن العمليات كانت آلية.

أطلقت Microsoft في أبريل أيضًا “AI Ai Reading Agent” يقوم بأتمتة عملية اختبار Programs Computer من خلال شن هجمات لتحديد نقاط الضعف. قال بيرد: “أنت تحدد المخاطر فقط ، تحدد صعوبة الهجوم … ثم الأمر خارج مهاجمة نظامك”.

هناك مخاوف من أنه من دون إشراف كافٍ ، يمكن أن يتخذ وكلاء الذكاء الاصطناعي إجراءات غير مصرح بها يفتح المالكون حتى الالتزام.

وقال كوزيركوف: “المخاطرة هي أن مجالس الإقامة يمكن أن تهدأ صانعي القرار إلى إحساس زائف بالأمان”. “مقاييس السلامة هي نقطة انطلاق وليست ضوء أخضر.”

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني

مقالات ذات صلة

إيران تحتجز ناقلة نفط في خليج عُمان للاشتباه بتهريبها وقوداً

ناقلتا ظل تواصلان تحميل نفط فنزويلا رغم الضغوط الأميركية

أميركا ترفع العقوبات عن بوتاس بيلاروسيا مع تحسّن العلاقات

السعودية تطور حوكمة الرقابة على المال العام وتنهي نموذج “الممثل المالي”

قيصر الذكاء الاصطناعي الأميركي: الصين ترفض رقائق “إنفيديا H200” وتدعم شرائحها المحلية

أسعار الفضة تتجه لزيادة أسبوعية 10% وسط موجة مضاربات

أوراكل” ترجئ مواعيد إنجاز مراكز بيانات تطوّرها لصالح “OpenAI

ترمب يعتزم تصنيف بيرو كحليف رئيسي من خارج الناتو

بنك روسيا يرفع دعوى في موسكو ضد “يوروكلير” بسبب تجميدها الأصول

اترك تعليقاً
اترك تعليقاً إلغاء الرد

Demo

اخر الأخبار

نوح أوكافور: مهاجم ليدز عازم على بقاء النادي في الدوري الإنجليزي الممتاز بعد موسم 2025/2026.

ليلي ألين تستضيف داكوتا جونسون في عرض (ساترداي نايت لايف) جريء بشخصية “مادلين”.

مجتمع يساعد أرملة في نورث داكوتا بعد حصاد 1400 فدان من محاصيل صديقها الراحل.

الاتحاد الأوروبي يتخذ خطًا أكثر صرامةً بشأن الهجرة غير الشرعية.

بثّ مباشر: مانشستر سيتي ضد أستون فيلا، وست هام ضد ليفربول، وليستر ضد لندن سيتي ليونيسس (WSL).

رائج هذا الأسبوع

إيران تحتجز ناقلة نفط في خليج عُمان للاشتباه بتهريبها وقوداً

اسواق الأحد 14 ديسمبر 1:05 م

رغم إعلان ترمب وقف إطلاق النار.. استمرار القتال بين تايلندا وكمبوديا

سياسة الأحد 14 ديسمبر 12:58 م

مقتل 12 شخصًا في إطلاق نار جماعي بشاطئ بوندي بأستراليا خلال (Hanukkah).

العالم الأحد 14 ديسمبر 12:20 م

تُظهر آخر تحديثات PlayStation Portal حاجة سوني لجهاز محمول حقيقي مجددًا.

تكنولوجيا الأحد 14 ديسمبر 12:03 م

جـو روت: إنجلترا تستلهم عودتها 2023 أمام أستراليا في (The Ashes) 2025/26، ويشرح أهمية معسكر نوسا.

رياضة الأحد 14 ديسمبر 11:25 ص
الشرق تايمز
فيسبوك X (Twitter) الانستغرام بينتيريست
  • الرئيسية
  • سياسة الخصوصية
  • من نحن
  • إعلن معنا
  • اتصل بنا
2025 © الشرق برس. جميع حقوق النشر محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter

تسجيل الدخول أو التسجيل

مرحبًا بعودتك!

Login to your account below.

نسيت كلمة المرور؟