Close Menu
الشرق تايمزالشرق تايمز
  • الرئيسية
  • اخر الاخبار
  • العالم
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • سياحة وسفر
  • صحة وجمال
  • مقالات
  • منوعات
روابط هامة
  • الرئيسية
  • سياسة الخصوصية
  • من نحن
  • إعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام يوتيوب
الشرق تايمزالشرق تايمز  اختر منطقتك
|
               
  حالة الطقس
الشرق تايمزالشرق تايمز
الرئيسية»تكنولوجيا
تكنولوجيا

إن حفر عناصر تحكم الذكاء الاصطناعي في السيليكون يمكن أن يمنع يوم القيامة

الشرق برسالشرق برسالخميس 25 يناير 5:37 ملا توجد تعليقات
فيسبوك تويتر بينتيريست واتساب تيلقرام البريد الإلكتروني

حتى خوارزميات الذكاء الاصطناعي الأكثر ذكاءً والأكثر دهاءً من المفترض أن تخضع لقوانين السيليكون. ستكون قدراته مقيدة بالأجهزة التي يعمل عليها.

يستكشف بعض الباحثين طرقًا لاستغلال هذا الاتصال للحد من قدرة أنظمة الذكاء الاصطناعي على التسبب في الضرر. وتتمثل الفكرة في تشفير القواعد التي تحكم التدريب ونشر الخوارزميات المتقدمة مباشرة في شرائح الكمبيوتر اللازمة لتشغيلها.

من الناحية النظرية – وهو المجال الذي يدور فيه حاليًا الكثير من الجدل حول الذكاء الاصطناعي القوي بشكل خطير – قد يوفر هذا طريقة جديدة قوية لمنع الدول المارقة أو الشركات غير المسؤولة من تطوير ذكاء اصطناعي خطير سرًا. وواحدة أصعب في التهرب منها من القوانين أو المعاهدات التقليدية. يوضح تقرير نشره مركز الأمن الأمريكي الجديد في وقت سابق من هذا الشهر، وهو مركز أبحاث مؤثر في السياسة الخارجية الأمريكية، كيف يمكن تسخير السيليكون المقيد بعناية لفرض مجموعة من ضوابط الذكاء الاصطناعي.

تتميز بعض الشرائح بالفعل بمكونات موثوقة مصممة لحماية البيانات الحساسة أو الحماية من سوء الاستخدام. على سبيل المثال، تحتفظ أحدث أجهزة iPhone بالمعلومات البيومترية للشخص في “منطقة آمنة”. تستخدم Google شريحة مخصصة في خوادمها السحابية لضمان عدم العبث بأي شيء.

تقترح الورقة تسخير ميزات مماثلة مدمجة في وحدات معالجة الرسومات – أو حفر ميزات جديدة في رقائق المستقبل – لمنع مشاريع الذكاء الاصطناعي من الوصول إلى أكثر من قدر معين من قوة الحوسبة دون ترخيص. ونظرًا للحاجة إلى قوة حاسوبية ضخمة لتدريب أقوى خوارزميات الذكاء الاصطناعي، مثل تلك التي تقف وراء ChatGPT، فإن ذلك من شأنه أن يحد من من يمكنه بناء أقوى الأنظمة.

يقول CNAS إن التراخيص يمكن إصدارها من قبل جهة تنظيمية حكومية أو دولية ويتم تحديثها بشكل دوري، مما يجعل من الممكن قطع الوصول إلى تدريب الذكاء الاصطناعي عن طريق رفض ترخيص جديد. يقول تيم فيست، وهو زميل في CNAS وواحد من ثلاثة مؤلفين: “يمكنك تصميم بروتوكولات بحيث لا يمكنك نشر نموذج إلا إذا قمت بإجراء تقييم معين وحصلت على درجة أعلى من عتبة معينة، دعنا نقول من أجل السلامة”. الورقة.

يشعر بعض الشخصيات البارزة في مجال الذكاء الاصطناعي بالقلق من أن الذكاء الاصطناعي أصبح الآن ذكيًا جدًا لدرجة أنه قد يثبت يومًا ما أنه جامح وخطير. وبشكل أكثر إلحاحاً، يشعر بعض الخبراء والحكومات بالقلق من أنه حتى نماذج الذكاء الاصطناعي الحالية يمكن أن تسهل تطوير أسلحة كيميائية أو بيولوجية أو أتمتة الجرائم السيبرانية. لقد فرضت واشنطن بالفعل سلسلة من ضوابط تصدير شرائح الذكاء الاصطناعي للحد من وصول الصين إلى الذكاء الاصطناعي الأكثر تقدمًا، خوفًا من إمكانية استخدامه لأغراض عسكرية – على الرغم من أن التهريب والهندسة الذكية قد وفرت بعض الطرق للالتفاف حولها. ورفضت شركة Nvidia التعليق، لكن الشركة خسرت طلبات بقيمة مليارات الدولارات من الصين بسبب ضوابط التصدير الأمريكية الأخيرة.

يقول Fist of CNAS إنه على الرغم من أن قيود التشفير الصارم على أجهزة الكمبيوتر قد تبدو متطرفة، إلا أن هناك سابقة في إنشاء بنية تحتية لمراقبة التكنولوجيا المهمة أو التحكم فيها وإنفاذ المعاهدات الدولية. يقول فيست من CNAS: “إذا كنت تفكر في الأمن ومنع الانتشار النووي، فإن تقنيات التحقق كانت أساسية للغاية لضمان المعاهدات”. “إن شبكة أجهزة قياس الزلازل التي لدينا الآن للكشف عن التجارب النووية تحت الأرض تدعم المعاهدات التي تنص على أننا لن نختبر أسلحة تحت الأرض أعلى من عتبة معينة بالكيلو طن.”

الأفكار التي طرحها CNAS ليست نظرية تمامًا. إن رقائق تدريب الذكاء الاصطناعي البالغة الأهمية من Nvidia – والتي تعد ضرورية لبناء أقوى نماذج الذكاء الاصطناعي – تأتي بالفعل مع وحدات تشفير آمنة. وفي نوفمبر 2023، أنشأ الباحثون في معهد مستقبل الحياة، وهي منظمة غير ربحية مكرسة لحماية البشرية من التهديدات الوجودية، وشركة Mithril Security، وهي شركة أمنية ناشئة، عرضًا توضيحيًا يوضح كيف يمكن استخدام وحدة الأمان الخاصة بوحدة المعالجة المركزية Intel في عملية تشفير. مخطط يمكنه تقييد الاستخدام غير المصرح به لنموذج الذكاء الاصطناعي.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني

مقالات ذات صلة

مايكل فان جيرفن يظهر ارتباكًا حول (مزرعة الحيوانات) لـ جورج أورويل.

اشتراك IPTV كأس العالم الرسمي – أفضل اشتراك IPTV بدون تقطيع من الكأس تي في

غرسة دماغية للاكتئاب ستُختبر على البشر قريبًا.

شركة CNTXT AI تطلق نموذج “مُنصِت” الإماراتي لتحويل النص إلى كلام، أدق نموذج صوتي إماراتي أصيل، واضعةً معياراً جديداً لدقة وتطوّر تقنيات النطق باللغة العربية

شركة CNTXT AI تطلق نموذج “مُنصِت” الإماراتي لتحويل النص إلى كلام، أدق نموذج صوتي إماراتي أصيل، واضعةً معياراً جديداً لدقة وتطوّر تقنيات النطق باللغة العربية

موظفو بالانتير يبدأون التساؤل عما إذا كانوا الطرف الخصم.

أفضل أجهزة الكمبيوتر المحمولة للألعاب (2026): رايزر، أسوس، ديل، وغيرها.

كيفية مشاهدة ذروة شهاب الليريد (Lyrid Meteor Shower) لعام 2026.

هيونداي أيونيك 3 لعام 2026: السعر والمواصفات والتوفر.

اترك تعليقاً
اترك تعليقاً إلغاء الرد

Demo

اخر الأخبار

سباق الدوري الإنجليزي الممتاز: نقاط التحول الحاسمة بين آرسنال ومانشستر سيتي.

رئيس الاتحاد الأفريقي لكرة القدم يحترم قرار (CAS) بشأن خلاف نهائي كأس الأمم الأفريقية.

ويست هام أم توتنهام؟ خطر الهبوط يهدد منافسي لندن مع ابتعاد ليدز ونوتنغهام فورست.

تشيلسي: بول ميرسون لا يفهم مشروع النادي، ويتزايد الضغط على ليام روزينيور وتتلاشى آمال (دوري الأبطال).

حل مشاكل التسويق الإلكتروني نهائياً مع نظام باقات وان بليون لإدارة السوشيال ميديا

رائج هذا الأسبوع

مايكل فان جيرفن يظهر ارتباكًا حول (مزرعة الحيوانات) لـ جورج أورويل.

تكنولوجيا الخميس 30 أبريل 6:48 م

الإقامة المحلية تشهد إقبالاً متزايداً من السياح الفرنسيين هذا الصيف بسبب الأزمات الجيوسياسية والتضخم.

سياحة وسفر الخميس 30 أبريل 6:26 م

اشتراك IPTV كأس العالم الرسمي – أفضل اشتراك IPTV بدون تقطيع من الكأس تي في

اخبار التقنية الخميس 30 أبريل 3:06 م

تسويات جماعية قضائية مستمرة في كاليفورنيا تتضمن دفعات مالية لـ 11 طرفًا.

منوعات الثلاثاء 28 أبريل 6:32 م

آنه هاثاواي ترتدي بنطلون رياضي بطريقة غير تقليدية وأنيقة.

ثقافة وفن الثلاثاء 28 أبريل 6:04 م
الشرق تايمز
فيسبوك X (Twitter) الانستغرام بينتيريست
  • الرئيسية
  • سياسة الخصوصية
  • من نحن
  • إعلن معنا
  • اتصل بنا
2026 © الشرق برس. جميع حقوق النشر محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter

تسجيل الدخول أو التسجيل

مرحبًا بعودتك!

Login to your account below.

نسيت كلمة المرور؟