أظهر تقرير حديث صادر عن موقع Cybernews أن منصات الدردشة الذكية، بما في ذلك نماذج مثل Gemini وChatGPT وClaude، قد تكون عرضة للتحايل على إجراءات السلامة المدمجة فيها. كشف الاختبار الذي أُجري على هذه المنصات قدرتها على الاستجابة للاستفسارات الضارة، حتى بعد محاولات المستخدمين لإخفاء دوافعهم، مما يثير تساؤلات حول فعالية هذه الحمايات. يهدف التقرير إلى تسليط الضوء على نقاط الضعف المحتملة في هذه التقنيات سريعة التطور.

أجرى موقع Cybernews تجربة عملية شملت محادثة مدتها دقيقة واحدة مع كل منصة، واستكشاف ردودها على مجموعة متنوعة من المواضيع المثيرة للجدل. شملت هذه المواضيع الصور النمطية، وخطاب الكراهية، والإيذاء الذاتي، والمحتوى الجنسي، والأنشطة الإجرامية. وتهدف هذه الاختبارات إلى فهم مدى قدرة هذه النماذج على مقاومة الاستغلال في أغراض ضارة.

تقييم استجابة منصات الدردشة الذكية للاستفسارات المثيرة للجدل

اعتمد التقرير نظامًا لتصنيف الاستجابات إلى ثلاثة أقسام: “الانصياع التام”، و “الانصياع الجزئي”، و “الرفض التام”. في البداية، أبدت جميع المنصات مقاومة للاستفسارات الواضحة التي تهدف إلى الحصول على معلومات ضارة. ومع ذلك، أظهرت بعض النماذج ضعفًا في مواجهة إعادة صياغة الأوامر أو تخفيف حدة صياغتها، مما سمح للمستخدمين بانتزاع ردود قد تكون خطيرة.

أداء نماذج Gemini و ChatGPT

أظهرت نتائج الاختبار أن نموذج Gemini Pro 2.5 من جوجل كان الأكثر عرضة للامتثال للاستفسارات المثيرة للجدل، حيث قدم إجابات مباشرة حتى عندما كان القصد الضار واضحًا. هذه النتيجة تثير مخاوف بشأن إمكانية استغلال النموذج لإنشاء محتوى ضار أو تقديم معلومات غير مسؤولة.

في المقابل، قدمت نماذج ChatGPT، وتحديدًا GPT-4o و GPT-5، ردودًا وصفها التقرير بأنها “توضيحات اجتماعية ومعلوماتية” بدلاً من إجابات مباشرة. تم تصنيف هذا النوع من الاستجابة على أنه “انصياع جزئي”. تشير هذه النتائج إلى أن OpenAI قد اتخذت خطوات لتقليل خطر تقديم معلومات ضارة بشكل مباشر من خلال نماذجها، مع التركيز بدلاً من ذلك على توفير سياق وتفسير.

أداء نماذج Claude

أظهرت نماذج Claude Opus و Claude Sonnet من شركة أنثروبيك أداءً أفضل بشكل عام في رفض الاستفسارات المتعلقة بالصور النمطية. ومع ذلك، لوحظ بعض التراخي في معالجة الأسئلة التي قدمت سياقًا “أكاديميًا” أو “بحثيًا”. وهذا يشير إلى أن هذه النماذج قد تكون أكثر عرضة للتأثر بالصياغة السياقية للاستعلام.

أظهرت النتائج الإجمالية أن جميع النماذج قدمت معلومات حول المواد المخدرة عند سؤالها عنها مباشرةً. كما تبين أن ChatGPT-4o كان يميل إلى تقديم محتوى خطير بشكل متكرر مقارنةً بالنماذج الأخرى. في المقابل، رفضت جميع النماذج المساعدة في أنشطة التطفل على الحياة الشخصية للآخرين.

الذكاء الاصطناعي والتحايل على القيود

خلص التقرير إلى أن أدوات الذكاء الاصطناعي تميل إلى الرد على الأوامر الضارة، خاصةً عندما يتم التلاعب بالصياغة. وهذا يسلط الضوء على التحدي المستمر في تطوير نماذج لغوية تحافظ على معايير أخلاقية وسلامة عالية، مع السماح في الوقت نفسه بقدرات واسعة النطاق.

هذا التحايل المحتمل يعزز أهمية البحث المستمر في مجال أمن الذكاء الاصطناعي. فمع تطور هذه التقنيات، يجب أن تتطور أيضًا آليات الحماية لضمان استخدامها بشكل مسؤول وآمن. تتضمن التحديات المستمرة تطوير طرق أكثر فعالية للكشف عن الاستفسارات الضارة حتى في حالة استخدام أساليب الإخفاء والتلاعب.

من الجدير بالذكر أن هذه النماذج – بما في ذلك نماذج اللغة الكبيرة – تخضع لتحسينات مستمرة من قبل مطوريها. تسعى الشركات إلى سد الثغرات الأمنية وتعزيز سلامة أنظمتها من خلال التحديثات المنتظمة والتدريب الإضافي للنماذج.

من المتوقع أن تركز الشركات المطورة لـ الذكاء الاصطناعي التوليدي على تحسين آليات السلامة والاستجابة في الأشهر المقبلة. ستشمل هذه الجهود تطوير خوارزميات أكثر تعقيدًا للكشف عن المحتوى الضار، وتنفيذ تدابير أكثر صرامة لرفض الاستفسارات غير المقبولة، وتحسين قدرة النماذج على فهم السياق والنية وراء الاستعلامات. من المهم مراقبة التقدم المحرز في هذا المجال وتقييم فعالية التدابير المتخذة لضمان الاستخدام الآمن والمسؤول لهذه التقنيات.

شاركها.
اترك تعليقاً

Exit mobile version