احصل على ملخص المحرر مجانًا
تختار رولا خلف، رئيسة تحرير صحيفة الفاينانشال تايمز، قصصها المفضلة في هذه النشرة الأسبوعية.
اعترفت شركة OpenAI بأن أحدث نماذجها “زادت بشكل كبير” من خطر إساءة استخدام الذكاء الاصطناعي لإنشاء أسلحة بيولوجية.
أعلنت الشركة التي يقع مقرها في سان فرانسيسكو عن نماذجها الجديدة، المعروفة باسم o1، يوم الخميس، حيث روجت لقدراتها الجديدة على التفكير وحل المشكلات الرياضية الصعبة والإجابة على أسئلة البحث العلمي. يُنظر إلى هذه التطورات على أنها اختراق حاسم في الجهود المبذولة لإنشاء ذكاء عام اصطناعي – آلات ذات إدراك على مستوى الإنسان.
قالت بطاقة نظام OpenAI، وهي أداة لشرح كيفية عمل الذكاء الاصطناعي، إن النماذج الجديدة تنطوي على “خطر متوسط” فيما يتعلق بالقضايا المتعلقة بالأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN) – وهو أعلى خطر قدمته OpenAI على الإطلاق لنماذجها. وقالت الشركة إن هذا يعني أن التكنولوجيا “حسنت بشكل كبير” قدرة الخبراء على إنشاء أسلحة بيولوجية.
قال خبراء إن برمجيات الذكاء الاصطناعي ذات القدرات الأكثر تقدماً، مثل القدرة على إجراء التفكير خطوة بخطوة، تشكل خطراً متزايداً من إساءة استخدامها في أيدي الجهات السيئة.
وقال يوشوا بينجيو، أستاذ علوم الكمبيوتر في جامعة مونتريال وأحد أبرز علماء الذكاء الاصطناعي في العالم، إنه إذا أصبحت شركة OpenAI الآن تمثل “خطرًا متوسطًا” فيما يتعلق بالأسلحة الكيميائية والبيولوجية، فإن “هذا يعزز فقط أهمية وإلحاح” التشريعات مثل مشروع القانون الذي نوقش بشدة في كاليفورنيا لتنظيم القطاع.
إن الإجراء المعروف باسم SB 1047 يتطلب من صانعي النماذج الأكثر تكلفة اتخاذ خطوات لتقليل مخاطر استخدام نماذجهم لتطوير الأسلحة البيولوجية. ومع تقدم نماذج الذكاء الاصطناعي “الرائدة” نحو الذكاء الاصطناعي العام، فإن “المخاطر ستستمر في الزيادة إذا كانت الحواجز المناسبة مفقودة”، كما قال بينجيو. “إن تحسين قدرة الذكاء الاصطناعي على التفكير واستخدام هذه المهارة للخداع أمر خطير بشكل خاص”.
وتأتي هذه التحذيرات في الوقت الذي تتسابق فيه شركات التكنولوجيا، بما في ذلك جوجل وميتا وأنثروبيك، لبناء وتحسين أنظمة الذكاء الاصطناعي المتطورة، حيث تسعى إلى إنشاء برامج يمكن أن تعمل كـ “وكلاء” لمساعدة البشر في إكمال المهام والتنقل في حياتهم.
ويُنظر إلى وكلاء الذكاء الاصطناعي أيضًا على أنهم مصدر محتمل للأموال للشركات التي تكافح حتى الآن مع التكاليف الضخمة المطلوبة لتدريب وتشغيل نماذج جديدة.
وقالت ميرا موراتي، مديرة التكنولوجيا في OpenAI، لصحيفة فاينانشال تايمز إن الشركة كانت “حذرة” بشكل خاص في كيفية تقديم o1 للجمهور، نظرًا لقدراتها المتقدمة، على الرغم من أن المنتج سيكون متاحًا على نطاق واسع عبر المشتركين المدفوعين في ChatGPT وللمبرمجين عبر واجهة برمجة التطبيقات.
وأضافت أن النموذج تم اختباره من قبل ما يسمى بالفرق الحمراء – خبراء في مجالات علمية مختلفة حاولوا كسر النموذج – لدفع حدوده. وقالت موراتي إن النماذج الحالية حققت أداءً أفضل بكثير من حيث مقاييس السلامة الإجمالية مقارنة بالنماذج السابقة.
تقرير إضافي بقلم جورج هاموند في سان فرانسيسكو