أطلق رائد الأعمال التكنولوجي سيقي تشين يوم السبت إضافة مفتوحة المصدر لمساعد الذكاء الاصطناعي Claude Code من أنثروبيك، تهدف إلى توجيه النموذج اللغوي للتوقف عن الكتابة بأسلوب يشبه أسلوب الذكاء الاصطناعي. هذه الأداة، المسماة “Humanizer” أو “مُنسِّك الآلة”، تهدف إلى جعل النصوص المولدة أكثر طبيعية و شبهاً بالكتابة البشرية، و هي مسألة أصبحت ذات أهمية متزايدة مع انتشار الكتابة بالذكاء الاصطناعي و محاولات اكتشافها. و قد اكتسبت هذه الإضافة أكثر من 1600 نجمة على منصة GitHub حتى يوم الاثنين.
تأتي هذه الإضافة في وقت يزداد فيه القلق بشأن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي و انتشاره على الإنترنت، بما في ذلك المقالات و النصوص الأكاديمية. و يواجه المحررون و المؤسسات تحديات كبيرة في التمييز بين النصوص التي يكتبها البشر و تلك التي تولدها الآلة. و تسعى أدوات مثل “Humanizer” إلى معالجة هذه المشكلة من خلال توجيه نماذج الذكاء الاصطناعي لتبني أنماط لغوية أكثر إنسانية.
كيف تعمل أداة “Humanizer” للكشف عن الكتابة بالذكاء الاصطناعي؟
تستند أداة “Humanizer” إلى دليل شامل وضعته WikiProject AI Cleanup، وهي مجموعة من محرري ويكيبيديا الفرنسية بقيادة إلياس ليبلوي، الذين يعملون منذ أواخر عام 2023 على تحديد المقالات التي تم إنشاؤها بواسطة الذكاء الاصطناعي. قام هؤلاء المحررون بتجميع قائمة بـ 24 نمطًا لغويًا و تنسيقًا تعتبر بمثابة علامات فارقة للكتابة المولدة بواسطة روبوتات الدردشة.
تعمل الإضافة كملف “skill” لـ Claude Code، وهو مساعد الترميز القائم على الطرفية من أنثروبيك. يتضمن هذا الملف تعليمات مكتوبة بتنسيق Markdown، والتي يتم إلحاقها بالمطالبة (prompt) التي يتم إدخالها إلى النموذج اللغوي الكبير الذي يشغل المساعد. و على عكس المطالبات النظامية العادية، يتم تنسيق معلومات المهارات بطريقة موحدة، مما يسمح لنماذج Claude بتفسيرها بدقة أكبر. (تتطلب المهارات المخصصة اشتراكًا مدفوعًا في Claude مع تفعيل تنفيذ التعليمات البرمجية.)
محددات الأداة و تأثيرها على جودة النصوص
على الرغم من فائدتها المحتملة، إلا أن نماذج اللغة لا تتبع دائمًا ملفات المهارات بشكل مثالي. و أظهرت الاختبارات المحدودة أن أداة “Humanizer” يمكن أن تجعل مخرجات الذكاء الاصطناعي تبدو أقل دقة و أكثر عفوية. ومع ذلك، قد يكون لها بعض العيوب، بما في ذلك عدم تحسين دقة الحقائق و احتمال الإضرار بقدرات الترميز.
قد تؤدي بعض تعليمات “Humanizer” إلى نتائج غير مرغوب فيها، اعتمادًا على المهمة. على سبيل المثال، تتضمن الأداة تعليمات مثل “إبداء الآراء. لا تقتصر على ذكر الحقائق – بل تفاعل معها. ‘لا أعرف حقًا كيف أشعر حيال هذا’ أكثر إنسانية من سرد إيجابيات وسلبيات بشكل محايد.” في حين أن عدم الكمال قد يبدو إنسانيًا، إلا أن هذه النصيحة قد لا تكون مفيدة إذا كنت تستخدم Claude لكتابة وثائق فنية.
من المفارقات أن مجموعة القواعد التي وضعها محررو ويكيبيديا للكشف عن الكتابة بمساعدة الذكاء الاصطناعي قد تساعد البعض في التحايل عليها. و يثير هذا الأمر تساؤلات حول فعالية أدوات الكشف عن المحتوى المولّد بالذكاء الاصطناعي على المدى الطويل.
لماذا تفشل تقنيات الكشف عن الكتابة بالذكاء الاصطناعي؟
حتى مع وجود مجموعة قواعد واثقة من قبل محرري ويكيبيديا، فقد كتبنا سابقًا عن سبب عدم موثوقية أدوات الكشف عن الكتابة بالذكاء الاصطناعي. لا يوجد شيء فريد بشكل جوهري في الكتابة البشرية يميزها بشكل موثوق عن الكتابة التي تنتجها نماذج اللغة الكبيرة.
أحد الأسباب هو أنه على الرغم من أن معظم نماذج اللغة تميل إلى أنواع معينة من اللغة، إلا أنه يمكن أيضًا توجيهها لتجنبها، كما هو الحال مع أداة “Humanizer”. و مع ذلك، قد يكون هذا الأمر صعبًا للغاية، كما اكتشفت OpenAI في صراعها المستمر مع استخدام الشرطة الطويلة (em dash).
تعتمد أداة “Humanizer” على تحديد الأنماط اللغوية التي غالبًا ما تستخدمها نماذج الذكاء الاصطناعي، مثل استخدام عبارات مبالغ فيها أو إضافة لاحقات “-ing” إلى الجمل. و من خلال توجيه النموذج لتجنب هذه الأنماط، يمكن أن تساعد الأداة في جعل النصوص تبدو أكثر طبيعية. على سبيل المثال، تحول الجملة “The Statistical Institute of Catalonia was officially established in 1989, marking a pivotal moment in the evolution of regional statistics in Spain” إلى “The Statistical Institute of Catalonia was established in 1989 to collect and publish regional statistics”.
بالإضافة إلى ذلك، فإن التطور المستمر في نماذج اللغة و قدرتها على التكيف يجعل من الصعب إنشاء أدوات كشف دقيقة و موثوقة. و مع تحسن هذه النماذج، تصبح قادرة على تقليد الأنماط اللغوية البشرية بشكل أفضل، مما يجعل من الصعب التمييز بين النصوص التي يكتبها البشر و تلك التي تولدها الآلة. و يضاف إلى ذلك، أن مجال معالجة اللغة الطبيعية يشهد تطورات سريعة، مما يتطلب تحديثًا مستمرًا لأدوات الكشف.
من المتوقع أن تستمر الجهود في تطوير أدوات كشف أكثر دقة و موثوقية، و لكن التحدي يظل قائمًا. و من المهم أن ندرك أن هذه الأدوات ليست مضمونة، و يجب استخدامها بحذر و جنبًا إلى جنب مع التقييم البشري. و في المستقبل القريب، من المرجح أن نرى المزيد من التركيز على تطوير تقنيات جديدة للكشف عن المحتوى المولّد بالذكاء الاصطناعي، بالإضافة إلى تطوير إرشادات و ممارسات أفضل للاستخدام المسؤول لهذه التقنيات.

