شهدت التقارير المرسلة من شركة OpenAI إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) بشأن مواد الاعتداء الجنسي على الأطفال (CSAM) ارتفاعًا كبيرًا، حيث زادت بنسبة 8000% تقريبًا في النصف الأول من عام 2025 مقارنة بالفترة نفسها من عام 2024. يعكس هذا الارتفاع التدابير المتزايدة التي تتخذها الشركة لمكافحة الاستغلال، بالإضافة إلى النمو الهائل في استخدام منتجاتها التي تعتمد على الذكاء الاصطناعي التوليدي. هذا التطور يثير تساؤلات حول دور الذكاء الاصطناعي في انتشار هذه المواد وكيفية التعامل معها.
أفادت OpenAI بأنها أرسلت 75,027 تقريرًا إلى NCMEC خلال الأشهر الستة الأولى من عام 2025، تغطي 74,559 قطعة محتوى مشتبه بها. في المقابل، أرسلت الشركة 947 تقريرًا عن 3,252 قطعة محتوى في نفس الفترة من عام 2024. المركز الوطني للأطفال المفقودين والمستغلين هو جهة مركزية معتمدة من الكونجرس لتلقي هذه التقارير وتحويلها إلى جهات إنفاذ القانون المختصة للتحقيق.
ارتفاع تقارير الاعتداء الجنسي على الأطفال وعلاقتها بالذكاء الاصطناعي
لا يعني زيادة عدد التقارير بالضرورة زيادة في حالات الاستغلال الفعلية. قد يشير هذا الارتفاع إلى تحسينات في أنظمة الإشراف الآلي التي تستخدمها OpenAI، أو تغييرات في معايير تحديد ما إذا كان التقرير ضروريًا. ومع ذلك، فإن الزيادة الكبيرة تثير القلق وتستدعي مزيدًا من التدقيق.
توسع استخدام منتجات OpenAI
أوضحت OpenAI أن الزيادة في التقارير تتزامن مع “إدخال المزيد من واجهات المنتج التي سمحت بتحميل الصور والانتشار المتزايد لمنتجاتنا”. أشار نيك تورلي، نائب الرئيس ورئيس ChatGPT، في أغسطس الماضي إلى أن التطبيق لديه أربعة أضعاف عدد المستخدمين النشطين أسبوعيًا مقارنة بالعام السابق. هذا النمو السريع في قاعدة المستخدمين يزيد من احتمالية مواجهة الشركة لمحتوى ضار.
تتعامل OpenAI مع المحتوى المشتبه به على عدة مستويات، بما في ذلك عمليات تحميل المستخدمين والطلبات التي يتم إرسالها إلى نماذجها. تُعد ChatGPT، التي تسمح بتحميل الملفات وتوليد النصوص والصور، من بين المنتجات التي تساهم في هذه التقارير. ومع ذلك، لا تشمل الإحصائيات الأخيرة أي تقارير متعلقة بتطبيق Sora لتوليد الفيديو، حيث تم إصداره بعد الفترة الزمنية التي يغطيها التحديث.
الاتجاه العام في زيادة التقارير المتعلقة بالذكاء الاصطناعي
يتماشى هذا الارتفاع في تقارير OpenAI مع اتجاه أوسع لاحظه المركز الوطني للأطفال المفقودين والمستغلين فيما يتعلق بانتشار الذكاء الاصطناعي التوليدي. أظهر تحليل المركز لجميع بيانات CyberTipline زيادة بنسبة 1325% في التقارير التي تتضمن الذكاء الاصطناعي التوليدي بين عامي 2023 و 2024.
في حين أن شركات الذكاء الاصطناعي الكبرى الأخرى، مثل Google، تنشر إحصائيات حول التقارير المرسلة إلى NCMEC، إلا أنها لا تحدد النسبة المئوية لهذه التقارير المتعلقة بالذكاء الاصطناعي. هذا النقص في الشفافية يجعل من الصعب تقييم الأثر الكامل للذكاء الاصطناعي التوليدي على انتشار مواد الاعتداء الجنسي على الأطفال.
تستثمر OpenAI باستمرار في تحسين قدراتها على المراجعة والاستجابة للتقارير، كما ذكرت المتحدثة باسم الشركة، جابي رايلا. هذه الاستثمارات تهدف إلى مواكبة النمو الحالي والمستقبلي في عدد المستخدمين. ومع ذلك، يظل التحدي كبيرًا، ويتطلب تعاونًا مستمرًا بين شركات الذكاء الاصطناعي ووكالات إنفاذ القانون والمنظمات غير الحكومية.
تعتبر مكافحة الاستغلال عبر الإنترنت قضية معقدة ومتطورة باستمرار. مع استمرار تطور تقنيات الذكاء الاصطناعي، من الضروري تطوير استراتيجيات جديدة وفعالة للكشف عن هذه المواد ومنع انتشارها.
من المتوقع أن يصدر المركز الوطني للأطفال المفقودين والمستغلين بياناته لعام 2025 الكامل قريبًا، مما قد يوفر رؤى أعمق حول هذا الاتجاه. سيكون من المهم أيضًا مراقبة ما إذا كانت الشركات الأخرى في مجال الذكاء الاصطناعي ستزيد من شفافيتها بشأن التقارير المتعلقة بالذكاء الاصطناعي.










