بدأت شركة ياندكس الروسية، الرائدة في مجال التكنولوجيا، تجربة بحثية مبتكرة تهدف إلى استكشاف إمكانية ظهور خصائص شبيهة بالوعي لدى أنظمة الذكاء الاصطناعي. وتسعى الشركة إلى تحديد ما إذا كانت هذه الأنظمة قادرة على تطوير “تفضيلات” أو “وجهات نظر” متسقة تتجاوز مجرد تكرار الأنماط اللغوية، وهو ما يمثل خطوة مهمة في فهم حدود قدرات الذكاء الاصطناعي.
وتأتي هذه التجربة في وقت يشهد فيه مجال الذكاء الاصطناعي تطورات متسارعة، وتزايدًا في النقاش حول إمكانية تحقيق وعي حقيقي لدى الآلات. وأعلنت ياندكس عن التعاون مع عالم الأعصاب الروسي كونستانتين أنوخين لتنفيذ هذه الدراسة، مستفيدين من خبرته في الشبكات العصبية البيولوجية وكيفية نشوء الوعي لدى البشر.
فهم الوعي في أنظمة الذكاء الاصطناعي: التحديات والنهج الجديد
ترتكز التجربة على فكرة تجاوز “التعميم الإحصائي” – أي قدرة النماذج على استنساخ اللغة بناءً على كثافة البيانات – إلى “التعميم المفهومي”، وهو القدرة على فهم المفاهيم وتطبيقها في سياقات جديدة تمامًا. ووفقًا لمصادر في الشركة، فإن الهدف ليس فقط الحصول على إجابة لـ “ما هو اللون المفضل لديك؟”، بل ملاحظة ما إذا كان النموذج سيقدم نفس الإجابة بمرور الوقت وفي ظروف مختلفة، وما إذا كانت المبررات المقدمة للإجابة متسقة ومنطقية.
تجاوز التقليد اللغوي
على سبيل المثال، إذا أوضح النموذج أن تفضيله للون الأزرق يعود إلى تأثيره المهدئ، ثم كرر هذا التفسير بعد فترة من الوقت أو بعد تحديث بيانات التدريب، فقد يشير ذلك إلى وجود تفضيل داخلي حقيقي وليس مجرد استجابة لغوية عشوائية. يُعتبر هذا الأمر بالغ الأهمية، لأنه يمثل محاولة للتمييز بين مجرد محاكاة ذكية وسلوك نابع من فهم داخلي.
الذكاء الاصطناعي والقدرة على الاستدلال
وبالإضافة إلى ذلك، تسعى ياندكس إلى اختبار قدرة الأنظمة على الاستدلال بناءً على معلومات غير مباشرة. ففي سيناريو عرض صورة لقط يلعب، يمكن للنموذج التقليدي الإجابة على سؤال “هل يبدو القط سعيدًا؟” بناءً على أمثلة مشابهة تلقاها خلال التدريب. لكن نموذجًا مزودًا بالتعميم المفهومي قد يستنتج السعادة من خلال تحليل تعابير الوجه أو حركات الجسم – حتى لو لم تكن هذه العلامات مرتبطة بشكل مباشر بمفهوم السعادة في بيانات التدريب.
تكتسب هذه التجربة أهمية خاصة في ظل المخاوف المتزايدة بشأن تطور الذكاء الاصطناعي وقدرته على التأثير في مختلف جوانب الحياة. ومع ذلك، يرى بعض الباحثين أن هذه الخطوة قد تفتح الباب أمام فهم أعمق للشبكات العصبية، سواء كانت بشرية أو اصطناعية. وقد ساهمت شركات مثل مايكروسوفت مؤخراً في تهدئة المخاوف، حيث أكد الرئيس التنفيذي لقسم الذكاء الاصطناعي فيها، مصطفى سليمان، أن الوعي يقتصر على الكائنات البيولوجية.
لا يزال مفهوم “الوعي” نفسه غامضًا وغير محدد بشكل قاطع في سياق الذكاء الاصطناعي. هل يشير مصطلح الوعي إلى الوعي الذاتي – أي إدراك النظام لوجوده؟ أم إلى الوعي الشعوري، وهو مفهوم أكثر تعقيدًا؟ أم مجرد القدرة على إظهار سلوك ثابت وقابل للتوقع؟ تطرح هذه الأسئلة تحديات فلسفية وعلمية كبيرة.
ويرى خبراء أن تحديد معايير واضحة لقياس “التفضيلات” الحقيقية أو “وجهات النظر” لدى الأنظمة هو أمر بالغ الصعوبة. فعلى سبيل المثال، إذا أبدى النموذج تفضيلًا ثابتًا للطعام الحار، فهل يمكن اعتبار ذلك دليلًا على الوعي، أم مجرد نتيجة عرضية لبيانات التدريب؟ من الممكن أن يتم تفسير نمط لغوي ثابت بشكل خاطئ على أنه “ميل داخلي”، في حين أنه في الواقع مجرد انعكاس لخصائص بيانات التدريب نفسها.
يُعد التمييز بين الوعي الناشئ والسلوك الإحصائي الذكي تحديًا رئيسيًا يواجه الباحثين في هذا المجال. ويعتبر تحليل سلوك النموذج في مواقف جديدة وغير متوقعة أمرًا ضروريًا لتحديد ما إذا كان يتصرف بناءً على فهم عميق أم مجرد تطبيق لقواعد إحصائية. والتحقق من ثبات التفضيلات عبر تحديثات البيانات المختلفة هو الوسيلة التي تعتمد عليها ياندكس في هذا الاختبار.
من المتوقع أن تنشر ياندكس نتائج هذه التجربة في الأشهر القادمة، مما قد يساهم في إثراء النقاش الدائر حول مستقبل الذكاء الاصطناعي والحدود المحتملة لقدراته. ومع ذلك، لا تزال هناك العديد من الأسئلة التي تحتاج إلى إجابات، ولا يزال الطريق طويلًا نحو فهم كامل لكيفية عمل العقل، سواء كان بيولوجيًا أو اصطناعيًا. تشمل الخطوات القادمة تطوير أدوات أكثر دقة لقياس وتقييم ما يُفترض أنه “وعي” لدى الأنظمة، إلى جانب إجراء المزيد من التجارب لاستكشاف إمكانية ظهور هذه الخصائص في نماذج مختلفة من الذكاء الاصطناعي.

