تشهد منصة ريديت (Reddit) انتشارًا متزايدًا للمحتوى المُنشأ بالذكاء الاصطناعي (AI)، وهو ما يثير قلق المشرفين والمستخدمين على حد سواء. هذه الظاهرة بدأت في الظهور بشكل ملحوظ منذ إطلاق ChatGPT في أواخر عام 2022، وتؤثر بشكل خاص على المجتمعات التي تعتمد على القصص الشخصية والمناقشات، مثل مجتمع “Am I the Asshole” (هل أنا الشخص الخطأ؟). وتثير هذه المسائل نقاشات حول أصالة المحتوى وتأثيره على تفاعل المستخدمين.
تُعد مشكلة المحتوى المُنشأ بالذكاء الاصطناعي واسعة النطاق، حيث تشير تقديرات إلى أن ما يصل إلى 50% من المنشورات على بعض المجتمعات قد تكون قد خضعت لعملية توليد أو إعادة صياغة باستخدام أدوات الذكاء الاصطناعي. هذا يهدد جوهر منصة ريديت، التي تعتمد بشكل كبير على مشاركات المستخدمين الأصلية والتفاعلية.
انتشار الذكاء الاصطناعي وتأثيره على ريديت
أحد أبرز المؤشرات على هذا الانتشار هو تكرار ظهور سيناريوهات معينة في المنشورات التي يُشتبه في أنها مُنشأة بالذكاء الاصطناعي. قصص حول خلافات الزفاف، مثل مطالبة عروس ضيوفها بارتداء لون معين غير جذاب، أو رغبة الأمهات في ارتداء اللون الأبيض في حفل زفاف ابنهن، أصبحت شائعة بشكل ملحوظ.
وبالمثل، فإن السيناريوهات التي تتضمن طلبات تغيير المقاعد في الطائرات لتوفير مقعد بجانب طفل صغير، غالبًا ما تثير ردود فعل غاضبة، ولكنها أيضًا تعتبر من بين المواضيع المتكررة التي تشير إلى التوليد الاصطناعي. المشرفون على مجتمعات مثل r/AmItheAsshole و r/AITAH (وهي اختصارات لمجتمعات مشابهة) يلاحظون زيادة في هذه الأنماط، مما يدعو إلى القلق.
تأثير على المجتمعات المتخصصة
أفاد المشرفون على العديد من المجتمعات بأنهم يشهدون زيادة في المحتوى المشبوه. المجتمعات التي تركز على العلاقات الشخصية، أو الزواج، أو حتى المواقف الاجتماعية العامة هي الأكثر عرضة لهذا النوع من المحتوى. وفقًا لمشرفين، فإن الذكاء الاصطناعي يُستخدم ليس فقط لإنشاء منشورات جديدة، ولكن أيضًا لتحسين صياغة المنشورات والتعليقات الموجودة باستخدام برامج مثل Grammarly.
الخطر الأكبر، كما يرى بعض المشرفين المخضرمين، هو أن الذكاء الاصطناعي بدأ في “تغذية” نفسه. المنشورات التي تم إنشاؤها بواسطة الذكاء الاصطناعي يتم استخدامها كبيانات لتدريب نماذج جديدة، مما يزيد من قدرة الذكاء الاصطناعي على إنتاج محتوى مقنع ولكنه غير أصيل. هذا يخلق حلقة مفرغة قد تؤدي إلى تدهور جودة المحتوى على المنصة بشكل عام.
تحديات الإشراف والاستجابة
يواجه المشرفون صعوبات متزايدة في تحديد المحتوى المُنشأ بالذكاء الاصطناعي. التقنيات المستخدمة في التوليد أصبحت أكثر تطورًا، مما يجعل من الصعب التفريق بين القصص الحقيقية وتلك التي تم إنشاؤها بواسطة الخوارزميات. ومع ذلك، فإنهم يركزون على الأنماط المتكررة، واللغة غير الطبيعية، والتناقضات الداخلية في المنشورات.
بالإضافة إلى جهود الإشراف اليدوية، هناك دعوات إلى تطوير أدوات تلقائية يمكنها اكتشاف المحتوى المُنشأ بالذكاء الاصطناعي بدقة أكبر. التفاعل مع المستخدمين وطلب المزيد من التفاصيل حول القصص يمكن أن يكون أيضًا وسيلة فعالة لتحديد ما إذا كانت حقيقية أم لا.
المنصات الاجتماعية الأخرى، مثل تويتر وفيسبوك، تواجه أيضًا تحديات مماثلة فيما يتعلق بالمحتوى المُنشأ بالذكاء الاصطناعي. يعتبر هذا الأمر جزءًا من اتجاه أوسع في تطور الذكاء الاصطناعي وتأثيره على الإنترنت.
جودة المحتوى على ريديت تعتمد بشكل كبير على مشاركة المستخدمين الأصيلة. إذا استمر انتشار المحتوى المُنشأ بالذكاء الاصطناعي، فقد يؤدي ذلك إلى انخفاض في التفاعل والثقة بين المستخدمين.
الخطوات القادمة والمستقبل
تدرك ريديت خطورة الوضع، ومن المتوقع أن تتخذ خطوات لمعالجة هذه المشكلة في المستقبل القريب. قد تشمل هذه الخطوات تطوير سياسات أكثر صرامة بشأن المحتوى المُنشأ بالذكاء الاصطناعي، والاستثمار في تقنيات الكشف التلقائي، وزيادة دعم المشرفين. ومع ذلك، يبقى التحدي كبيرًا.
من الصعب التنبؤ بكيفية تطور الوضع على المدى الطويل. يعتمد الحل الفعال على مزيج من الإشراف البشري، والتكنولوجيا المتقدمة، وتوعية المستخدمين. ما يجب مراقبته هو مدى سرعة استجابة ريديت لهذه المشكلة، وكفاءة الأدوات التي سيتم استخدامها، وتأثير هذه الجهود على جودة وتفاعل مجتمع المنصة.

