هناك اتجاه متزايد لدى الأشخاص والمنظمات لرفض فرض الذكاء الاصطناعي بشكل غير مرغوب فيه في حياتهم. في ديسمبر 2023، رفعت صحيفة نيويورك تايمز دعوى قضائية ضد شركتي OpenAI وMicrosoft بسبب انتهاك حقوق الطبع والنشر. في مارس 2024، رفع ثلاثة مؤلفين دعوى جماعية في كاليفورنيا ضد شركة Nvidia بزعم تدريب منصة الذكاء الاصطناعي NeMo الخاصة بها على أعمالهم المحمية بحقوق الطبع والنشر. وبعد شهرين، أرسلت الممثلة الشهيرة سكارليت جوهانسون خطابًا قانونيًا إلى OpenAI عندما أدركت أن صوت ChatGPT الجديد كان “مشابهًا بشكل مخيف” لصوتها.
التكنولوجيا ليست هي المشكلة هنا. ديناميكية القوة هي. يدرك الناس أن هذه التكنولوجيا مبنية على بياناتهم، وغالبًا ما يكون ذلك دون إذن منا. ليس من المستغرب أن ثقة الجمهور في الذكاء الاصطناعي آخذة في الانخفاض. تظهر دراسة حديثة أجرتها مؤسسة بيو للأبحاث أن أكثر من نصف الأميركيين يشعرون بالقلق أكثر من حماستهم للذكاء الاصطناعي، وهو شعور ردده غالبية الناس من أميركا الوسطى والجنوبية، وأفريقيا، ودول الشرق الأوسط في استطلاع للمخاطر العالمية.
في عام 2025، سنرى الناس يطالبون بمزيد من التحكم في كيفية استخدام الذكاء الاصطناعي. كيف سيتم تحقيق ذلك؟ أحد الأمثلة على ذلك هو الفريق الأحمر، وهو ممارسة مستعارة من الجيش وتستخدم في الأمن السيبراني. في تمرين الفريق الأحمر، يُطلب من الخبراء الخارجيين “التسلل” إلى النظام أو كسره. إنه بمثابة اختبار لمكان الخطأ الذي يمكن أن تسوء فيه دفاعاتك، حتى تتمكن من إصلاحها.
يتم استخدام الفريق الأحمر من قبل شركات الذكاء الاصطناعي الكبرى للعثور على المشكلات في نماذجها، ولكنه ليس منتشرًا بعد كممارسة للاستخدام العام. وسوف يتغير ذلك في عام 2025.
على سبيل المثال، تستخدم شركة المحاماة DLA Piper الآن الفريق الأحمر مع المحامين لاختبار ما إذا كانت أنظمة الذكاء الاصطناعي تمتثل للأطر القانونية بشكل مباشر. تقوم مؤسستي غير الربحية، Humane Intelligence، ببناء تمارين الفريق الأحمر مع خبراء غير تقنيين وحكومات ومنظمات المجتمع المدني لاختبار الذكاء الاصطناعي بحثًا عن التمييز والتحيز. وفي عام 2023، أجرينا تمرينًا للفريق الأحمر يضم 2200 شخص بدعم من البيت الأبيض. في عام 2025، ستعتمد فعاليات الفريق الأحمر لدينا على الخبرة الحياتية للأشخاص العاديين لتقييم نماذج الذكاء الاصطناعي الخاصة بالإسلاموفوبيا، وقدرتها على تمكين التحرش عبر الإنترنت ضد المرأة.
بشكل ساحق، عندما أستضيف أحد هذه التمارين، فإن السؤال الأكثر شيوعًا الذي يُطرح علي هو كيف يمكننا التطور من تحديد المشكلات إلى إصلاح المشكلات بأنفسنا. وبعبارة أخرى، يريد الناس الحق في الإصلاح.
قد يبدو حق إصلاح الذكاء الاصطناعي على النحو التالي: يمكن أن يتمتع المستخدم بالقدرة على تشغيل التشخيص على الذكاء الاصطناعي، والإبلاغ عن أي حالات شاذة، ومعرفة متى يتم إصلاحها من قبل الشركة. يمكن لمجموعات الطرف الثالث، مثل المتسللين الأخلاقيين، إنشاء تصحيحات أو إصلاحات للمشكلات التي يمكن لأي شخص الوصول إليها. أو يمكنك الاستعانة بطرف مستقل معتمد لتقييم نظام الذكاء الاصطناعي وتخصيصه لك.
ورغم أن هذه فكرة مجردة اليوم، إلا أننا نمهد الطريق لكي يصبح الحق في الإصلاح حقيقة واقعة في المستقبل. سوف يتطلب قلب ديناميكية القوة الحالية الخطيرة بعض العمل، فنحن ندفع بسرعة إلى تطبيع عالم تقوم فيه شركات الذكاء الاصطناعي ببساطة بوضع نماذج ذكاء اصطناعي جديدة وغير مختبرة في أنظمة العالم الحقيقي، مع وجود أشخاص عاديين كأضرار جانبية. يمنح حق الإصلاح كل شخص القدرة على التحكم في كيفية استخدام الذكاء الاصطناعي في حياته. كان عام 2024 هو العام الذي استيقظ فيه العالم على انتشار الذكاء الاصطناعي وتأثيره. 2025 هو العام الذي نطالب فيه بحقوقنا.