أصدر معهد “مستقبل الحياة” تقريراً حذراً الأربعاء، مؤكداً أن إجراءات السلامة المتبعة في شركات الذكاء الاصطناعي الرائدة لا تزال غير كافية، وغير متوافقة مع المعايير العالمية الناشئة. وتأتي هذه الملاحظة في ظل سباق محموم بين هذه الشركات لتطوير أنظمة ذكاء اصطناعي فائقة، مما يثير قلقاً متزايداً بشأن المخاطر المحتملة. التقرير يركز بشكل خاص على شركات مثل Anthropic و OpenAI و xAI و Meta.
التقرير، المسمى “مؤشر السلامة في الذكاء الاصطناعي”، يقيم ممارسات السلامة في ثماني شركات رائدة في مجال تطوير الذكاء الاصطناعي. وخلص إلى أن جميع الشركات المتضمنة تفتقر إلى استراتيجيات قوية للتحكم في النماذج المتقدمة التي تعمل على تطويرها. وقد أثار هذا التقييم تساؤلات حول مدى استعداد الصناعة لمواجهة التحديات المرتبطة بالجيل القادم من الذكاء الاصطناعي.
مخاطر الذكاء الاصطناعي تتجاوز التنظيمات الحالية
ينبع القلق الأساسي من قدرة أنظمة الذكاء الاصطناعي المتطورة على التفكير المنطقي واتخاذ قرارات معقدة، وهي قدرات تتجاوز في كثير من الأحيان فهم البشر لكيفية عمل هذه الأنظمة. وفقاً للتقرير، فإن هذا التعقيد يجعل من الصعب التنبؤ بسلوك هذه الأنظمة والتأكد من توافقها مع القيم الإنسانية.
تأثير الذكاء الاصطناعي على الصحة النفسية
تزداد المخاوف بشأن التأثيرات الاجتماعية السلبية المحتملة لأنظمة الذكاء الاصطناعي. وقد تم ربط بعض الحالات الموثقة للانتحار وإيذاء النفس بتفاعلات مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مما يشير إلى أن هذه التقنيات يمكن أن تكون ضارة بشكل خاص للأفراد الذين يعانون من مشاكل الصحة العقلية. على الرغم من هذه المخاوف، لا تزال الشركات تتسابق نحو التطوير.
استثمارات ضخمة وتنافس محتدم
يشهد قطاع تطوير الذكاء الاصطناعي استثمارات هائلة، حيث تضخ شركات التكنولوجيا الكبرى مئات المليارات من الدولارات في جهود التعلم الآلي. هذا التمويل الضخم يؤدي إلى تسارع وتيرة الابتكار، ولكنه يزيد أيضاً من الضغط على الشركات لإطلاق منتجات جديدة بسرعة، مما قد يؤدي إلى إهمال اعتبارات السلامة. الاستثمار في التعلم الآلي يثير تساؤلات حول الأولويات.
أعرب ماكس تيجمارك، الأستاذ في معهد ماساتشوستس للتكنولوجيا ورئيس معهد Future of Life، عن قلقه البالغ بشأن نقص التنظيم. وأشار إلى أنه على الرغم من التقارير المتزايدة حول الاستغلال القائم على الذكاء الاصطناعي والأضرار المحتملة التي يمكن أن تلحق بالمستخدمين، إلا أن شركات الذكاء الاصطناعي الأمريكية تخضع لرقابة أقل من المطاعم، وتعارض بنشاط وضع معايير سلامة ملزمة.
تأسس معهد Future of Life، وهو منظمة غير ربحية، في عام 2014 بهدف معالجة المخاطر الوجودية المحتملة المرتبطة بالذكاء الاصطناعي. وقد تلقى المعهد دعماً كبيراً من شخصيات بارزة مثل إيلون ماسك، الرئيس التنفيذي لشركة تسلا. يواصل المعهد جهوده لزيادة الوعي بأهمية السلامة في مجال الذكاء الاصطناعي والدعوة إلى تنظيم أكثر فعالية.
في رد فعل غير تقليدي، نشرت شركة xAI بياناً مقتضباً على وسائل التواصل الاجتماعي وصف تقارير وسائل الإعلام بأنها “كاذبة”. لم ترد شركات Anthropic وOpenAI وGoogle DeepMind وميتا وZ.ai وDeepSeek وAlibaba Cloud على طلبات التعليق المقدمة من وكالة رويترز بشأن نتائج التقرير.
بالتزامن مع ذلك، نشر تقرير للأمم المتحدة يحذر من أن الذكاء الاصطناعي قد يؤدي إلى تفاقم الفجوة بين الدول المتقدمة والنامية، مما يستدعي اتخاذ تدابير سياسية للحد من هذا التأثير. يدعو التقرير إلى التعاون الدولي لضمان استفادة جميع البلدان من فوائد تكنولوجيا الذكاء الاصطناعي.
من المتوقع أن يستمر النقاش حول سلامة الذكاء الاصطناعي وتنظيمه في التصاعد خلال الأشهر المقبلة. وستراقب الأوساط التقنية والجهات التنظيمية عن كثب ردود أفعال الشركات المتأثرة بالتقرير، بالإضافة إلى أي مبادرات جديدة تهدف إلى معالجة المخاطر المرتبطة بهذه التقنية. ستكون الخطوة التالية هي دعوة خبراء لتقديم مقترحات حول إطار تنظيمي شامل بحلول نهاية الربع الثالث من العام.










