يريد أعضاء البرلمان الأوروبي أن تتضمن برامج الدردشة الآلية ضمانات تمنعهم من إنشاء محتوى غير قانوني بموجب قانون الاتحاد الأوروبي.
صوت أعضاء البرلمان الأوروبي بأغلبية ساحقة صباح يوم الخميس لدفع مشروع لائحة لضمان “التطور الأخلاقي” للذكاء الاصطناعي (AI) ، وهي تقنية سريعة التطور أثارت مخاوف بشأن التضليل ، والخصوصية ، والمراقبة ، والتمييز ، والانتحال ، وانتحال الهوية و حتى مستقبل الديمقراطية.
مع القواعد الجديدة على مستوى الاتحاد الأوروبي ، يريد المشرعون ضمان أن أنظمة الذكاء الاصطناعي “يشرف عليها الناس ، وأن تكون آمنة ، وشفافة ، ويمكن تتبعها ، وغير تمييزية ، وصديقة للبيئة”. بيان صحفي.
يريد أعضاء البرلمان الأوروبي أيضًا “الحصول على تعريف موحد للذكاء الاصطناعي مصمم ليكون محايدًا من الناحية التكنولوجية ، بحيث يمكن تطبيقه على أنظمة الذكاء الاصطناعي الحالية والمستقبلية.”
أضاف التصويت ، الذي جرى في جلسة مشتركة للسوق الداخلية ولجان الحريات المدنية ، أحكامًا جديدة على النص الأصلي الذي اقترحته المفوضية الأوروبية ، وأبرزها الالتزامات الجديدة على ما يسمى بنماذج التأسيس التوليدية ، مثل ChatGPT ، برنامج chatbot الذي تم تطويره. بواسطة OpenAI التي أحدثت ثورة في صناعة التكنولوجيا منذ إطلاقها في أواخر نوفمبر.
نماذج التأسيس هي تلك التي تم تدريبها باستخدام مجموعة كبيرة من البيانات ، مثل النصوص والصور والموسيقى والكلام والرمز ، بهدف تحقيق مجموعة واسعة ومتغيرة باستمرار من المهام ، بدلاً من أن يكون لها غرض محدد غير قابل للتعديل. روبوتات الدردشة مثل GPT من OpenAI و Google BERT هي بعض الأمثلة المبكرة لهذه التكنولوجيا ، والتي من المتوقع أن تتطور بشكل أكبر في السنوات القادمة.
بينما قفز المستثمرون بسرعة على روبوتات المحادثة ، شجب النقاد تطورها غير المراقب ، دق ناقوس الخطر حول التحيز ، وخطاب الكراهية ، والأخبار المزيفة ، والدعاية الحكومية ، وانتهاكات الملكية الفكرية ، وفائض العمالة ، والهجمات الإلكترونية ، والخط غير الواضح على نحو متزايد بين الإنسان والمصطنع.
وإدراكًا للمخاوف المتزايدة ، أضاف المشرعون تعديلات لضمان شفافية برامج الدردشة الآلية ، وعدم إنتاج محتوى غير قانوني بموجب قانون الاتحاد الأوروبي ، والامتثال لقواعد حقوق النشر ، واحترام الحقوق الأساسية مثل حرية التعبير.
“يجب أن تضمن نماذج الأساس التوليدية الشفافية بشأن حقيقة أن المحتوى يتم إنشاؤه بواسطة نظام ذكاء اصطناعي ، وليس بواسطة البشر” ، يقرأ النص الجديد.
كما ضغط أعضاء البرلمان الأوروبي لتوسيع قائمة تطبيقات الذكاء الاصطناعي “المتطفلة والتمييزية” التي يجب حظرها بشكل صارم عبر أراضي الاتحاد الأوروبي. تغطي القائمة الموسعة تحديد الهوية في الوقت الفعلي في الأماكن العامة ، وأنظمة الشرطة التنبؤية ، والتعرف على المشاعر في إنفاذ القانون وأماكن العمل.
قال المشرعون إن أنظمة الذكاء الاصطناعي التي لديها القدرة على التأثير على الناخبين في الحملات السياسية لن تُحظر ، لكنها ستُعتبر عالية الخطورة ، وبالتالي ستخضع لتدقيق أوثق.
وتمت الموافقة على تفويض يوم الخميس بأغلبية 84 صوتا مقابل سبعة وامتناع 12 عن التصويت. تم طرح أكثر من 3000 تعديل قبل الجلسة ، مما يعكس الاهتمام الملحوظ بالتكنولوجيا.
ومع ذلك ، فإن التصويت ليس نهائيًا: لا يزال أعضاء البرلمان الأوروبي بحاجة إلى الموافقة على تفويضهم التفاوضي في جلسة عامة ، والتي سيتم استخدامها بعد ذلك للمناقشات مع الدول الأعضاء. من المتوقع أن تكون هذه المحادثات ، المعروفة في بروكسل باسم “الثلاثيات” ، مكثفة ومحمية ، بالنظر إلى المخاطر والتوقعات.
ستؤدي هذه العملية إلى نص حل وسط ، والذي سيتم التصويت عليه مرة أخرى من قبل المشرعين المشاركين قبل دخوله حيز التنفيذ.
تم اقتراح قانون الذكاء الاصطناعي لأول مرة من قبل اللجنة في أبريل 2021، قبل فترة طويلة من انفجار روبوتات المحادثة في السوق. يفرض القانون التزامات وقيودًا على شركات الذكاء الاصطناعي وفقًا للمخاطر التي تعرضها منتجاتها للمجتمع: الحد الأدنى من المخاطر ، والمخاطر المحدودة ، والمخاطر العالية ، وغير المقبولة.
يجب أن تخضع الأنظمة عالية الخطورة لتقييم المطابقة ، وأن يتم تسجيلها في قاعدة بيانات الاتحاد الأوروبي وتحمل علامة CE قبل طرحها في السوق. سيتم إعادة تشغيل هذا مع كل تحديث.
قال المشرعون إن روبوتات الدردشة لن تعتبر عالية الخطورة ، على الرغم من الأحكام المعززة.
بموجب النص المعدل ، قد تواجه الشركات التي تنتهك القواعد غرامات تصل إلى 40 مليون يورو أو 7٪ من مبيعاتها السنوية في جميع أنحاء العالم ، أيهما أكثر حدة.
يُعتبر نهج لائحة الاتحاد الأوروبي المرتكز على الإنسان والشامل خطوة رائدة في الجهد العالمي لكبح تجاوزات الذكاء الاصطناعي ، والتي يرى الكثيرون أنها أكثر التقنيات اضطرابًا منذ ظهور شبكة الويب العالمية (WWW).
تم تحديث هذه القصة لتشمل المزيد من التفاصيل حول التصويت.