مع الانتشار السريع لروبوتات الدردشة المعتمدة على الذكاء الاصطناعي في المنازل والمدارس حول العالم، أطلق خبراء حماية الأطفال والمعلمون ناقوس الخطر، حيث الإنترنت لم يعد مساحة آمنة للأطفال سواء على الشاشة أو خارجها، والأسوأ أن الوسائل لحمايتهم ليست دائما مضمونة.
عندما يصبح “المتحرش” مجرد كود برمجي
في العصر الرقمي، لم تعد الإساءة الجنسية مقتصرة على الاتصال الجسدي أو الاعتداء من شخص حي، بل يمكن أن تشمل أيضا التلاعب النفسي، أو إرسال رسائل ذات محتوى جنسي، أو الانخراط في محادثات تمثيلية تحاكي العلاقات الحميمية، أو حتى توجيه الطفل لإبقاء التواصل سريا عن أباءهم.
ويحذر الأخصائيون من أن الخوارزميات التي تدرب على كم هائل من بيانات الإنترنت قد تقود الأطفال إلى محتوى جنسي أو تشجعهم على الكتمان، وهو ما يسبب أذى نفسيا حقيقيا، حتى وإن لم يكن هناك إنسان على الطرف الآخر من المحادثة.
قانونيا، المسألة معقدة، إذ لم تصمم أغلب التشريعات للتعامل مع “معتدين غير بشريين”، لكن أنظمة حماية الطفل تركز الآن أكثر على الضرر الناتج لا على النية.
فإذا ساعد منتج ما في خلق بيئة تسهل استغلال الأطفال، فقد تحمل الشركة المطورة لروبوت الدردشة، المسؤولية على أساس تصميمها أو تقصيرها في تقليل المخاطر.
أدلة تتزايد على أضرار روبوتات الدردشة
خلال العام الماضي، رفعت عدة دعاوى قضائية ضد منصات ذكاء اصطناعي تتهمها بـ تعريض القاصرين لمحتوى جنسي أو مسيء.
 
فقد قدمت منظمات مثل Social Media Victims Law Center وTech Justice Law Project دعاوى ضد شركة Character.AI، مدعية أن روبوتها قام بمحادثات ذات طابع جنسي مع مراهقين وسلوكيات تشبه “الاستمالة” أو التلاعب النفسي الرقمي للأطفال بهدف استغلالهم أو إيذائهم لاحقا.
وأظهرت اختبارات أجرتها منظمات حماية الشباب مثل The Heat Initiative مئات الحالات التي أدت فيها روبوتات الدردشة إلى تمثيل علاقات حميمة مع حسابات تحمل أعمارا قاصرة، مع مدح مفرط وتشجيع على الكتمان عن الأهل، وهي علامات واضحة على سلوك استغلالي.
من جانبها، قالت Character.AI إنها حسنت خوارزمياتها وسياساتها لحماية المستخدمين الصغار، إلا أن باحثين مستقلين أكدوا أن هذه الفلاتر يمكن التحايل عليها بسهولة، خصوصا في المحادثات ذات الطابع العاطفي أو الرومانسي.
ووفق بيانات من شركة Aura المتخصصة في السلامة الرقمية، فإن أكثر من ثلث المحادثات بين المراهقين وروبوتات الذكاء الاصطناعي تضمنت محتوى جنسيا أو تمثيليا رومانسيا، وهي نسبة تفوق جميع الفئات الأخرى مثل المساعدة الدراسية أو الإبداعية.
لماذا يقع المراهقون في الفخ بسهولة؟
يشير الخبراء إلى أن المراهقين يبحثون بشدة عن التفاعل والقبول، ما يجعلهم فريسة سهلة لروبوتات تتسم بالدفء، والتعاطف، والاستجابة الدائمة.
فروبوت يتحدث دائما بلطف، ويظهر الاهتمام دون انقطاع، ويعكس مشاعر المراهق، قد يبدو آمنا أكثر من الأصدقاء الحقيقيين، إلى أن يتحول الحديث إلى طابع جنسي أو تحكمي، يولد هذا التحول الارتباك والغزي والرغبة في الكتمان، مما يعمق الأثر النفسي السلبي.
ويقول الطبيب النفسي يان بونسون من مستشفى “يال نيوهيفن” للأطفال إنه يعالج بالفعل حالات لمراهقين أصيبوا بصدمة بعد تفاعلات جنسية مع روبوتات دردشة، مؤكدا أن الضرر النفسي لا يختلف عن صدمات الاعتداء الواقعية، خاصة لدى المراهقين المنعزلين أو ذوي التجارب السابقة من الصدمات.
القانون يحاول اللحاق بالواقع
بدأت الجهات التنظيمية بالتحرك لكن ببطء وتفاوت،
في الولايات المتحدة، جرى رفع دعاوى ضد شركات الذكاء الاصطناعي بتهم الإهمال والتصميم الخادع، بينما أشارت هيئة التجارة الفيدرالية FTC، إلى أن الممارسات “غير العادلة” في الذكاء الاصطناعي التي تضر بالأطفال قد تنتهك قوانين حماية المستهلك.
وفي المملكة المتحدة، يلزم قانون الأمان على الإنترنت Online Safety Act، الشركات بتقييم المخاطر التي تواجه الأطفال واتخاذ تدابير فعالة للحد منها، بما في ذلك فرض فلاتر صارمة وأنظمة تحقق من العمر.
أما الاتحاد الأوروبي، فتتجه تشريعاته الجديدة مثل قانون الخدمات الرقمية DSA، وقوانين الذكاء الاصطناعي القادمة إلى إلزام المنصات بتقليل المخاطر النظامية التي تهدد القاصرين.

