تخلت شركة أنثروبيك، المطورة لنظام الذكاء الاصطناعي Claude، عن التعهد الأساسي في سياستها للسلامة، والذي كانت تعتبره دليلاً على التزامها بالمسؤولية في تطوير الذكاء الاصطناعي. يأتي هذا القرار في وقت متزايد التوتر بين الشركة ووزارة الدفاع الأمريكية (البنتاجون) بشأن استخدام نموذجها في الأنظمة العسكرية.

أعلن جاريد كابلان، كبير العلماء في أنثروبيك، عن هذا التغيير في مقابلة مع مجلة TIME، موضحاً أن الشركة لم تعد تلتزم بعدم إطلاق نماذج ذكاء اصطناعي ما لم تضمن تدابير السلامة الكافية. هذا التحول يمثل تعديلاً كبيراً على “سياسة التوسع المسؤول” (RSP) التي تبنتها الشركة في عام 2023.

سياسة التحفظ وتطورات الذكاء الاصطناعي

في عام 2023، تعهدت أنثروبيك بعدم تدريب أي نظام ذكاء اصطناعي إلا بعد التأكد من وجود تدابير سلامة كافية. كان هذا التعهد بمثابة حجر الزاوية في سياسة الشركة، وروجت له كدليل على التزامها بالمسؤولية في مواجهة الضغوط المتزايدة في سوق تطوير الذكاء الاصطناعي. ومع ذلك، قررت الشركة في الأشهر الأخيرة إلغاء هذا التعهد.

وأوضح كابلان أن الشركة شعرت بأن التوقف عن تدريب نماذج الذكاء الاصطناعي لن يفيد أحداً، خاصةً مع التقدم السريع في هذا المجال. وأضاف أن تقديم التزامات أحادية الجانب لم يعد منطقياً في ظل المنافسة الشديدة.

النسخة الجديدة من سياسة RSP تتضمن تعهدات بزيادة الشفافية بشأن مخاطر السلامة، والإفصاح عن أداء نماذج أنثروبيك في اختبارات السلامة. كما تلتزم الشركة بمضاهاة أو تجاوز جهود السلامة لدى المنافسين، وتأجيل تطوير التقنيات إذا اعتبرت أنها تتصدر سباق الذكاء الاصطناعي وأن المخاطر كبيرة.

ومع ذلك، فإن هذا التعديل يجعل أنثروبيك أقل تقيداً بسياساتها السابقة، التي كانت تحظر بشكل قاطع تدريب نماذج تتجاوز مستوى معيناً ما لم تكن تدابير السلامة الملائمة مطبقة.

الحوافز الداخلية لضمان السلامة

تؤكد الشركة أنها ستسعى للحفاظ على الحوافز الداخلية لتطوير أدوات تخفيف المخاطر بسرعة، من خلال نشر خرائط طريق أمان النماذج المتقدمة بشكل دوري، وإصدار تقارير مخاطر كل ثلاثة إلى ستة أشهر. ستشرح هذه التقارير كيفية تداخل القدرات الجديدة مع سيناريوهات التهديد وإجراءات الحد من المخاطر، مع تقييم شامل لمستوى الخطورة.

وترى إدارة الشركة أن هذا النهج سيخلق آلية ضغط داخلية لضمان إعطاء الأولوية لأبحاث السلامة، على الرغم من الضغوط التنافسية والتجارية.

ظروف تغيير الأولويات والخلاف مع البنتاجون

لم يأتِ هذا التحول في سياق فراغ. عندما أطلقت أنثروبيك سياستها في عام 2023، كانت تأمل في تحفيز المنافسين على تبني التزامات مماثلة، وتحويل مبادئها إلى نموذج يُحتذى به في تشريعات تنظيم الذكاء الاصطناعي.

لكن هذه التوقعات لم تتحقق. حتى الآن، لم يتم إصدار قانون اتحادي شامل ينظم الذكاء الاصطناعي في الولايات المتحدة، كما تراجعت احتمالات التوصل إلى إطار حوكمة عالمي ملزم، في وقت اشتدت فيه المنافسة بين الشركات والدول.

بالإضافة إلى ذلك، واجهت الشركة تعقيدات علمية في تقييم المخاطر. في عام 2025، أعلنت أنها لا تستطيع استبعاد احتمال أن تساهم النماذج القوية في تسهيل هجوم إرهابي بيولوجي، لكنها لم تمتلك أدلة علمية حاسمة تثبت أن الخطر وشيك.

في المقابل، حققت الشركة نجاحاً تقنياً وتجارياً، حيث حققت نماذج “كلود” انتشاراً واسعاً، وتمكنت في فبراير من جمع استثمارات ضخمة رفعت تقييمها إلى مئات المليارات من الدولارات.

تصعيد التوتر مع وزارة الدفاع

تزامن هذا النجاح مع تصعيد حاد في علاقتها مع وزارة الدفاع الأمريكية. ذكرت تقارير أن وزير الدفاع بيت هيجسيث منح الرئيس التنفيذي للشركة، داريو أمودي، مهلة للموافقة على منح الجيش وصولاً غير مقيّد إلى نموذج “كلود”، وإلا ستواجه الشركة إجراءات قد تصل إلى تصنيفها كخطر على سلاسل التوريد الدفاعية.

خلال اجتماع وُصف بـ”المتوتر”، أبلغ هيجسيث الرئيس التنفيذي لشركة الذكاء الاصطناعي أن البنتاجون قد يلجأ إلى قانون الإنتاج الدفاعي لإجبار الشركة على تكييف نموذجها مع احتياجات الجيش، أو يقطع العلاقات معها ويباشر إجراءات رسمية ضدها. تطلب وزارة الدفاع من شركتي “بوينج” و”لوكهيد مارتن” تقييم مدى اعتمادهما على نماذج “كلود”.

يتمثل جوهر الخلاف في إصرار أنثروبيك على الإبقاء على قيود تمنع استخدام نموذجها في المراقبة الجماعية أو تطوير أنظمة أسلحة ذاتية التشغيل، بينما ترى وزارة الدفاع أن اشتراط موافقة الشركة على كل حالة استخدام “أمر غير عملي”.

تجد أنثروبيك نفسها الآن في مفترق طرق، حيث أعادت صياغة سياستها للأمان لتواكب سباقاً عالمياً متسارعاً، وتواجه ضغوطاً سياسية وعسكرية لرفع قيود الاستخدام عن تقنياتها. من المتوقع أن تتخذ الشركة قراراً نهائياً بشأن مطالب البنتاجون بحلول نهاية الأسبوع، وهو ما سيحدد مستقبل علاقتها مع وزارة الدفاع، ويؤثر على مسار تطوير الذكاء الاصطناعي المسؤول.

شاركها.
اترك تعليقاً

Exit mobile version