لماذا هناك حاجة إلى تنظيم الذكاء الاصطناعي؟
لم تجد الجهات التنظيمية في جميع أنحاء العالم نقصًا في القضايا التي تدعو للقلق مع ظهور الذكاء الاصطناعي.
هل يجب عليهم التدخل في الخوارزميات التي يمكن أن تؤدي إلى تحيز أو تشويه القرارات التي تؤثر على الحياة اليومية للمليارات؟ ماذا عن المخاطر المتمثلة في أن روبوتات الدردشة، مثل ChatGPT، ستؤدي إلى زيادة إنتاج المعلومات الخاطئة عبر الإنترنت، أو تؤدي إلى إساءة استخدام كميات هائلة من البيانات الشخصية؟ وماذا ينبغي عليهم أن يفعلوا إزاء التحذيرات من أن أجهزة الكمبيوتر قد تصل قريباً إلى هذا المستوى من الذكاء الذي يجعلها تفلت من سيطرة صانعيها – مع ما قد يترتب على ذلك من عواقب وخيمة محتملة على البشرية؟
تتحرك التكنولوجيا بسرعة كبيرة لدرجة أنه لا يوجد اتفاق يذكر حتى الآن على الأجندة التنظيمية، على الرغم من أن التركيز على جانبي المحيط الأطلسي قد وقع بشكل متزايد على أقوى أنظمة الذكاء الاصطناعي ذات الأغراض العامة. تم تطوير هذه الأنظمة من قبل شركات مثل OpenAI وGoogle وAnthropic، والمعروفة باسم النماذج الأساسية، وهي تدعم مجموعة واسعة من التطبيقات من شركات مختلفة، مما يمنحها تأثيرًا واسع النطاق عبر المجتمع والاقتصاد.
ما هي قضايا الذكاء الاصطناعي التي ينظر إليها المنظمون أولاً؟
كان الاتحاد الأوروبي في طريقه إلى وضع اللمسات الأخيرة على قانون الذكاء الاصطناعي الأول من نوعه والذي كان من شأنه أن يتحكم، أو حتى يحظر، الاستخدامات “عالية الخطورة” المفترضة للذكاء الاصطناعي – مثل اتخاذ القرارات بشأن طلبات العمل أو القروض أو الصحة. العلاجات. ثم انفجر هوس ChatGPT – الاهتمام العام الهائل بروبوت الدردشة الآلي المولد والمتاح مجانًا من OpenAI.
وسرعان ما قام المشرعون بتعديل خططهم، ووضع قواعد جديدة من شأنها أن تجبر الشركات على الكشف عن نماذج أساس البيانات مثل تلك المستخدمة في ChatGPT التي تم التدريب عليها. ويواجه مبتكرو أقوى النماذج، والتي تعتقد بروكسل أنها يمكن أن تشكل مخاطر نظامية، متطلبات إضافية، مثل تقييم المخاطر في نماذجهم وتخفيفها والإبلاغ عن أي حوادث خطيرة. كما أنشأ القانون، الذي تم اعتماده في مايو 2024 وبدأ دخوله حيز التنفيذ بعد عام، مكتبًا قويًا جديدًا للذكاء الاصطناعي مكلفًا بوضع المعايير التي يجب أن تستوفيها أنظمة الذكاء الاصطناعي المتقدمة.
ومع ذلك، يعتقد باتريك فان إيكي، الرئيس المشارك لشركة المحاماة العالمية كولي للمحاماة والبيانات والخصوصية، أن بروكسل تحركت في وقت مبكر جدًا لمحاولة تنظيم التكنولوجيا التي لا تزال “هدفًا متحركًا”، مما يعكس التحيز الثقافي تجاه غير المحسوبين. أنظمة. يقول: “نحن نحب تنظيم الواقع حتى قبل أن يصبح حقيقة”، مرددًا وجهة نظر منتشرة على نطاق واسع في عالم الذكاء الاصطناعي.
لدى العديد من المسؤولين التنفيذيين في مجال التكنولوجيا في الولايات المتحدة تفسير مختلف. ويرون أن تسرع بروكسل في تنظيم أقوى أنظمة الذكاء الاصطناعي بشكل مباشر هو خطوة حمائية متعمدة من قبل الاتحاد الأوروبي، مما يفرض قيودًا على مجموعة من الشركات الأمريكية التي تهيمن على صناعة الذكاء الاصطناعي.
فهل تصبح لوائح الذكاء الاصطناعي في الاتحاد الأوروبي نموذجا لبقية العالم؟
وهذا ما حدث مع تشريع حماية البيانات الخاص بالكتلة، وهو تطور محتمل تشعر شركات التكنولوجيا الأمريكية بالقلق إزاءه. ويقول مؤيدو قانون الاتحاد الأوروبي إنه سيتم تطبيقه بمرونة ليعكس المعايير المتغيرة والتقدم التكنولوجي. لكن النقاد يقولون إن التجربة تظهر أن بروكسل تتخذ نهجا أكثر تشددا، وأن القواعد المطبقة الآن يمكن أن تحد من تطور التكنولوجيا.
بعض الشركات الأوروبية توافق على ذلك. وفي رسالة إلى المفوضية الأوروبية في عام 2023، حذرت 150 شركة أوروبية كبيرة من أن القانون قد يعيق اقتصاد الكتلة من خلال منع الشركات هناك من استخدام تكنولوجيا الذكاء الاصطناعي المهمة بحرية.
ألا تطالب شركات الذكاء الاصطناعي بالتنظيم؟
لقد تعلمت صناعة الذكاء الاصطناعي من ردود الفعل العنيفة ضد وسائل التواصل الاجتماعي أنها لا تدفع ثمناً للتهرب من القيود التنظيمية المفروضة على التكنولوجيات التي يمكن أن تخلف تأثيراً اجتماعياً وسياسياً كبيراً.
لكن هذا لا يعني أنهم معجبون بما يخطط له الاتحاد الأوروبي. سام ألتمان، رئيس شركة OpenAI ومؤيد قوي لتنظيم الذكاء الاصطناعي، قال لصحيفة “فاينانشيال تايمز” إن شركته قد تضطر إلى الانسحاب من الاتحاد الأوروبي تماما إذا كانت القواعد النهائية بشأن الذكاء الاصطناعي صارمة للغاية. إن الضجة التي أثارتها كلماته دفعته إلى التراجع بسرعة، ولكن وراء الكواليس، لم تتضاءل مخاوف الولايات المتحدة.
كما أثار استعداد شركات التكنولوجيا الكبرى للدعوة إلى التنظيم الشكوك حول أنها تعتبر ذلك وسيلة لتعزيز قبضتها على سوق الذكاء الاصطناعي. ارتفاع التكاليف والبيروقراطية يمكن أن يجعل من الصعب على المنافسين الجدد اقتحام السوق.
ما هو البديل لنهج الاتحاد الأوروبي؟
قبل اتخاذ قرار بشأن قوانين جديدة، تقوم العديد من البلدان بإلقاء نظرة فاحصة على كيفية تطبيق لوائحها الحالية على التطبيقات التي تعمل بالذكاء الاصطناعي.
في الولايات المتحدة، على سبيل المثال، فتحت لجنة التجارة الفيدرالية تحقيقًا في ChatGPT، باستخدام صلاحياتها الحالية. أحد مخاوفها هو أن ChatGPT يمتص البيانات الشخصية ويستخدمها أحيانًا لتجديد معلومات كاذبة وضارة عن الأشخاص العاديين. وقد شرع المشرعون الأمريكيون أيضًا في مراجعة واسعة النطاق للذكاء الاصطناعي، والتي تحاول صراحةً الموازنة بين فوائد التكنولوجيا وأضرارها المحتملة.
دعا زعيم الأغلبية في مجلس الشيوخ الأمريكي، تشاك شومر، إلى عقد سلسلة من اجتماعات الخبراء والمنتديات لأهم لجان مجلس الشيوخ، لمساعدتهم على تحديد جوانب الذكاء الاصطناعي التي قد تحتاج إلى تنظيم.
وقالت هولي فيشنر، الرئيس المشارك لمجموعة صناعة التكنولوجيا في شركة المحاماة كوفينجتون آند بيرلينج: “إن الشراكة الكبيرة بين الحزبين في الكونجرس بشأن المنافسة الأمريكية مع الصين” تجعل نهج شومر “رسالة رابحة – وتشير إلى أن الولايات المتحدة تتحرك في اتجاه مختلف”. الاتجاه من أوروبا.”
ومع ذلك، كما هو الحال في بروكسل، بدأت واشنطن أيضًا في فرض متطلبات على أقوى نماذج المؤسسات. في أمر تنفيذي تم تبنيه في أواخر عام 2023، طلب البيت الأبيض في عهد بايدن من الشركات التي تنشئ أنظمة قوية مزدوجة الاستخدام – أي تلك التي لها أيضًا استخدام عسكري محتمل – الكشف عن قدرات أنظمتها للمسؤولين، مع الترويج أيضًا لطرق وضع المعايير والمبادئ التوجيهية لكيفية تدريب هذه النماذج واختبارها ومراقبتها. وعلى الرغم من أنه أقل صرامة من قانون الاتحاد الأوروبي الجديد، إلا أن الأمر كان أول محاولة شاملة في الولايات المتحدة لمعالجة الذكاء الاصطناعي.
إذا لم تنظم الحكومات الآن، ألن يصبح سباق الذكاء الاصطناعي سباقاً خطيراً ومجانياً للجميع؟
تقول العديد من شركات التكنولوجيا إن تطور الذكاء الاصطناعي يجب أن يعكس الأيام الأولى للإنترنت: فقد أحجمت الهيئات التنظيمية عن ذلك، وسمحت للابتكار بالازدهار، ولم تتدخل إلا في وقت لاحق، حسب الحاجة.
وهناك بالفعل دلائل تشير إلى أن معايير الصناعة والاتفاقيات الجديدة بشأن أفضل الممارسات في مجال الذكاء الاصطناعي بدأت تترسخ، حتى بدون تنظيم صريح. ففي الولايات المتحدة، على سبيل المثال، تعمل الصناعة مع المعهد الوطني للمعايير والتكنولوجيا على تدوين أفضل الطرق لتصميم وتدريب ونشر أنظمة الذكاء الاصطناعي. وبطلب من البيت الأبيض، وقعت مجموعة من شركات الذكاء الاصطناعي الرائدة العام الماضي على مجموعة من الالتزامات الطوعية.
ومع ذلك، يحذر النقاد من أن تدفق رأس المال إلى صناعة الذكاء الاصطناعي والتقييمات المرتفعة لشركات الذكاء الاصطناعي الناشئة أدى إلى تطوير غير مقيد للتكنولوجيا، بغض النظر عن المخاطر. في واحدة من أوضح علامات الضغوط التي خلقها هذا الأمر داخل شركات التكنولوجيا، تم إقالة سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من قبل مجلس إدارة الشركة في عام 2023 بسبب مخاوف بشأن قيادته، قبل أن تسمح ثورة بين الموظفين بإعادته إلى منصبه. بعد خمسة أيام. ويبدو أن الآخرين الذين حذروا من مخاطر الاندفاع المتهور في مجال الذكاء الاصطناعي – مثل إيلون ماسك – قد تخلصوا من مخاوفهم وانضموا إلى السباق.
يقول بعض الأشخاص الذين يطورون الذكاء الاصطناعي إنه يمكن أن يدمر البشرية، أليس هذا سببًا للتنظيم الفوري؟
لا أحد في صناعة التكنولوجيا يعتقد أن أنظمة الذكاء الاصطناعي الحالية تمثل تهديدًا وجوديًا للبشرية، ولا يوجد اتفاق حول متى يمكن أن تصل التكنولوجيا إلى هذه النقطة، إن وجدت. لكن في العام الماضي، دعت رسالة مفتوحة وقعها العديد من خبراء التكنولوجيا إلى وقف العمل على الأنظمة الأكثر تقدمًا لمدة ستة أشهر، لإتاحة الوقت للتوصل إلى بروتوكولات أمان جديدة.
وبينما بدأت الحكومات في النظر في هذه القضية، فإن الأمر سيتطلب اتفاقيات دولية جديدة لمحاولة السيطرة على انتشار الذكاء الاصطناعي الخطير. وحتى في هذه الحالة، قد تكون هذه الجهود غير عملية، نظرا للتوافر الواسع النطاق للموارد الحاسوبية ومجموعات البيانات اللازمة لتدريب أنظمة الذكاء الاصطناعي.
في الوقت الحالي، تدعي نفس الشركات التي تقود الجهود في مجال الذكاء الاصطناعي أنها أيضًا في طليعة محاولة كبح جماحه. قالت OpenAI في منتصف عام 2023 إنها كانت تنشئ فريقًا داخليًا لبدء البحث عن طرق للتحكم في “الذكاء الفائق”. أجهزة الكمبيوتر، والتي تعتقد أنها يمكن أن تأتي في هذا العقد. ولكن بعد أقل من عام، قامت بحل الفريق – واتهم أحد الأشخاص الذين قادوه الشركة بأنها مهتمة ببناء “منتجات لامعة” أكثر من خلق ثقافة حقيقية حول سلامة الذكاء الاصطناعي.