أثار الذكاء الاصطناعي (AI) ضجة كبيرة في عام 2024، مع وعود بتحول جذري في طريقة عملنا وحياتنا. ومع ذلك، يبدو أن عام 2025 كان عامًا للحديث عن “وكلاء الذكاء الاصطناعي” أكثر من كونه عامًا لتحقيق هذا التحول، مع تأجيل اللحظة الحاسمة إلى عام 2026 أو ما بعده. لكن هل من الممكن أن يكون تحقيق الأتمتة الكاملة لحياتنا بواسطة روبوتات الذكاء الاصطناعي التوليدية، التي تقوم بمهامنا وتدير العالم، أمرًا غير وارد؟
حدود الذكاء الاصطناعي التوليدي: هل الوكلاء الذكيون حلم بعيد المنال؟
هذا هو جوهر الرسالة التي حملها بحث منشور مؤخرًا، بعيدًا عن صخب الترويج المفرط للذكاء الاصطناعي. يزعم البحث، بعنوان “محطات الهلوسة: حول بعض القيود الأساسية للنماذج اللغوية القائمة على المحولات”، أنه يظهر رياضيًا أن “نماذج اللغة الكبيرة (LLMs) غير قادرة على تنفيذ مهام حسابية ووكالية تتجاوز مستوى معين من التعقيد”.
الورقة البحثية، التي كتبها فيشال سيكا، الرئيس التنفيذي السابق لشركة SAP وابنه، تشير إلى أن حتى نماذج الاستدلال الأكثر تطوراً لن تحل المشكلة الأساسية. يقول سيكا: “لا توجد طريقة لكي تكون هذه الأنظمة موثوقة”. ويضيف، مستفسرًا عن إمكانية استخدامها في مهام حساسة مثل تشغيل محطات الطاقة النووية: “بالتأكيد لا. ربما يمكنها المساعدة في تنظيم بعض الأوراق، ولكن يجب أن نكون مستعدين للأخطاء.”
صناعة الذكاء الاصطناعي تعترض على هذا الطرح. لقد حقق الذكاء الاصطناعي نجاحًا كبيرًا في مجال البرمجة، وهو ما ظهر بقوة في العام الماضي. أعلن ديميس هاسابيس، رئيس قسم الذكاء الاصطناعي في جوجل الحائز على جائزة نوبل، في منتدى دافوس مؤخرًا عن اختراقات في تقليل “الهلوسات” في نماذج الذكاء الاصطناعي.
التقدم في البرمجة بالذكاء الاصطناعي
تستثمر الشركات الكبرى والناشئة على حد سواء في تطوير “الوكلاء الذكيين”. وتظهر شركة Harmonic، الناشئة التي أسسها فلاد تينيف، الرئيس التنفيذي لشركة Robinhood، وتودور أشيم، عالم رياضيات من جامعة ستانفورد، نتائج واعدة في هذا المجال. تعتمد Harmonic على استخدام الأساليب الرياضية الرسمية للتحقق من صحة مخرجات نماذج اللغة الكبيرة.
تستخدم الشركة لغة Lean البرمجية، المعروفة بقدرتها على التحقق من التعليمات البرمجية، لضمان موثوقية الأنظمة. يركز عمل Harmonic بشكل أساسي على “الذكاء الاصطناعي الفائق الرياضي”، وتعتبر البرمجة امتدادًا طبيعيًا لهذا الهدف. في الوقت الحالي، لا يشمل نطاق عملهم مجالات مثل كتابة المقالات التاريخية، التي لا يمكن التحقق منها رياضيًا.
ومع ذلك، يعتقد أشيم أن تحقيق سلوك وكيل ذكي موثوق به ليس مستحيلاً. ويقول: “أعتقد أن معظم النماذج الحالية لديها مستوى الذكاء المطلوب للتخطيط لرحلة سفر”.
الهلوسات في الذكاء الاصطناعي: تحدٍ مستمر
كلا الطرفين محقان – أو ربما على نفس الجانب. يتفق الجميع على أن الهلوسات ستظل مشكلة قائمة في نماذج الذكاء الاصطناعي. أظهرت الأبحاث التي نشرها علماء OpenAI في سبتمبر الماضي أن هذه الهلوسات لا تزال موجودة حتى في أحدث النماذج.
في التجربة، طُلب من ثلاثة نماذج، بما في ذلك ChatGPT، تقديم عنوان أطروحة المؤلف الرئيسي. قامت جميع النماذج بابتكار عناوين وهمية وقدمت معلومات غير صحيحة حول سنة النشر. وأعلنت OpenAI بخيبة أمل في مدونتها أن “الدقة لن تصل إلى 100٪ أبدًا” في نماذج الذكاء الاصطناعي. هذا يؤكد أهمية التحقق البشري من مخرجات الذكاء الاصطناعي، خاصة في التطبيقات الحرجة.
تعتبر مشكلة الهلوسات من أبرز التحديات التي تواجه تطوير الذكاء الاصطناعي الموثوق به. وتشير الأبحاث إلى أن هذه الهلوسات تنبع من الطريقة التي يتم بها تدريب نماذج اللغة الكبيرة، والتي تعتمد على التنبؤ بالكلمات بناءً على كميات هائلة من البيانات النصية. هذا النهج يمكن أن يؤدي إلى توليد معلومات غير دقيقة أو غير منطقية، خاصة عندما يتعلق الأمر بأسئلة معقدة أو غير مألوفة.
الخطوة التالية المتوقعة هي التركيز على تطوير أساليب جديدة لتقليل الهلوسات وتحسين موثوقية نماذج الذكاء الاصطناعي. يتضمن ذلك استكشاف تقنيات جديدة للتدريب، مثل التعلم المعزز، واستخدام الأساليب الرياضية الرسمية للتحقق من صحة المخرجات. ومع ذلك، لا يزال هناك الكثير من عدم اليقين حول ما إذا كانت هذه الجهود ستؤدي إلى تحقيق الذكاء الاصطناعي العام (AGI) أو الوكلاء الذكيين القادرين على أتمتة حياتنا بالكامل.










