لغة كبيرة حديثة قد تكتب النماذج (LLMS) السوناتات الجميلة والرمز الأنيق ، لكنها تفتقر إلى القدرة البدائية على التعلم من التجربة.

ابتكر الباحثون في معهد ماساتشوستس للتكنولوجيا (معهد ماساتشوستس للتكنولوجيا) وسيلة لـ LLMS لمواصلة التحسن من خلال تعديل المعلمات الخاصة بهم استجابةً لمعلومات جديدة مفيدة.

يعد هذا العمل خطوة نحو بناء نماذج ذكاء اصطناعي تتعلم باستمرار-هدف طويل الأمد في هذا المجال وشيء سيكون أمرًا بالغ الأهمية إذا كانت الآلات ستحاكي الذكاء البشري بأمانة. في غضون ذلك ، يمكن أن يمنحنا chatbots وغيرها من أدوات الذكاء الاصطناعى والتي تكون أكثر قدرة على دمج معلومات جديدة بما في ذلك اهتمامات المستخدم وتفضيلاتها.

يتضمن مخطط معهد ماساتشوستس للتكنولوجيا ، الذي يسمى نماذج لغة تكييف الذات (SEAL) ، إنشاء LLM لبيانات التدريب الاصطناعية الخاصة بها بناءً على الإدخال الذي يتلقاه.

يقول Jyothish Pari ، طالب دكتوراه في معهد ماساتشوستس للتكنولوجيا: “كانت الفكرة الأولية هي استكشاف ما إذا كانت الرموز (وحدات النص التي يتم تغذيتها إلى LLMs وتوليدها) قد تسبب تحديثًا قويًا لنموذج ما”. يقول باري إن الفكرة كانت لمعرفة ما إذا كان يمكن استخدام ناتج النموذج لتدريبه.

يضيف آدم زويجر ، باحث في معهد ماساتشوستس للتكن

على النقيض من ذلك ، يولد الختم رؤى جديدة ثم يطويها في أوزانه أو معلماتها. بالنظر إلى بيان حول التحديات التي يواجهها برنامج Apollo Space ، على سبيل المثال ، أنشأ النموذج مقاطع جديدة تحاول وصف الآثار المترتبة على البيان. قارن الباحثون هذا بالطريقة التي يكتب بها الطالب البشري ومراجعات الملاحظات من أجل المساعدة في تعلمهم.

ثم قام النظام بتحديث النموذج باستخدام هذه البيانات واختبر مدى قدرة النموذج الجديد على الإجابة على مجموعة من الأسئلة. وأخيرًا ، يوفر هذا إشارة تعلم تعزيز تساعد على توجيه النموذج نحو التحديثات التي تعمل على تحسين قدراته الإجمالية والتي تساعدها على الاستمرار في التعلم.

اختبر الباحثون مقاربتهم في الإصدارات الصغيرة والمتوسطة من نموذجين مفتوح المصدر ، Llama's Llama و Alibaba's Qwen. يقولون أن النهج يجب أن يعمل مع نماذج حدودية أكبر بكثير أيضًا.

اختبر الباحثون نهج الختم على النص وكذلك معيار يسمى ARC يقيس قدرة نموذج الذكاء الاصطناعى على حل مشاكل التفكير التجريدي. في كلتا الحالتين ، رأوا أن الختم سمح للموديلات بمواصلة التعلم بشكل جيد إلى ما هو أبعد من تدريبهم الأولي.

يقول Pulkit Agrawal ، الأستاذ في معهد ماساتشوستس للتكن يقول إنه يمكن استخدامه جيدًا للمساعدة في جعل نماذج الذكاء الاصطناعي أكثر تخصيصًا. يقول: “LLMs قوية لكننا لا نريد أن تتوقف معرفتهم”.

الختم ليس حتى الآن وسيلة لوكالة الذكاء الاصطناعى لتحسين إلى أجل غير مسمى. لسبب واحد ، كما يلاحظ Agrawal ، تعاني LLMS الذي تم اختباره من ما يعرف باسم “النسيان الكارثي” ، وهو تأثير مقلق عند تناول معلومات جديدة يؤدي إلى اختفاء المعرفة القديمة ببساطة. قد يشير هذا إلى اختلاف أساسي بين الشبكات العصبية الاصطناعية والشبكات البيولوجية. يلاحظ Pari و Zweigler أيضًا أن SEAL مكثف حسابيًا ، وليس من الواضح بعد أفضل طريقة لتحديد موعد بشكل أكثر فعالية في فترات التعلم الجديدة. إحدى الأفكار الممتعة ، كما ذكر زويغلر ، هي أنه ، مثل البشر ، ربما يمكن أن تعاني LLMs من فترات “النوم” حيث يتم توحيد معلومات جديدة.

ومع ذلك ، على الرغم من كل حدوده ، يعد Seal مسارًا جديدًا مثيرًا لمزيد من أبحاث الذكاء الاصطناعي – وقد يكون شيئًا يجد طريقه إلى نماذج Frontier Frontier AI.

ما رأيك في الذكاء الاصطناعى القادر على الاستمرار في التعلم؟ أرسل بريدًا إلكترونيًا إلى hello@wired.com لإخباري.

شاركها.
اترك تعليقاً

Exit mobile version