بعد إنفاقها في أوائل العشرينات من القرن الماضي ، لاحظت لورا بيتس ، المربية في المملكة المتحدة ، لاحظت أن الفتيات الصغيرات الذي كانت تهتم به كانوا منشغلين من قبل أجسادهن ، مدفوعة بالتسويق الذي كانوا يتلقونه. في عام 2012 ، بدأ بيتس ، وهو مؤلف وناشط نسوي ومقره لندن ، مشروع التمييز الجنسي اليومي ، وهو موقع مخصص لتوثيق ومكافحة التمييز الجنسي ، وكره النساء ، والعنف بين الجنسين في جميع أنحاء العالم من خلال تسليط الضوء على حالات غدرية منه مثل العمل غير المرئي ، في إشارة إلى النساء والتعليق على أفعالهن المهنية. تم تحويل الموقع إلى كتاب في عام 2014.

منذ ذلك الحين ، انتهك التحرش الجنسي للمرأة في المساحات عبر الإنترنت ، بما في ذلك تجربة بيتس الخاصة بكونها ضحية ديبفيك المواد الإباحية ، مما دفعها إلى كتابة كتابها الجديد ، العصر الجديد للتمييز الجنسي: كيف تعيد الذكاء الاصطناعي والتقنيات الناشئة اختراع كره النساء، تم نشره في 9 سبتمبر بواسطة كتب المصدر.

في حين أن العنف القائم على النوع الاجتماعي لا يزال يرتكب عادةً من قبل أشخاص مقربين من الضحية ، فإن الوصول السريع والسهل والرخيص إن لم يكن مجانًا إلى الذكاء الاصطناعي “يخفض الشريط للوصول إلى هذا الشكل الخاص من الإساءة بسرعة كبيرة” ، كما يقول بيتس سلكي. “يمكن لأي شخص من أي عمر لديه إمكانية الوصول إلى الإنترنت الآن … جعل صورًا إباحية واقعية للغاية لأي امرأة أو فتاة قاموا بتسليمها صورة ملبسة بالكامل من الإنترنت.”

من خلال الأبحاث المباشرة التي تضمنت التحدث إلى المبدعين والنساء الذين تعرضوا ضحية من الذكاء الاصطناعى وتكنولوجيا DeepFake ، وكذلك استخدام الدردشة و Sexbots التي تنقلها ، في العصر الجديد للتمييز الجنسي يرسم Bates الطرق التي ، إن لم يكن تنظيمها بشكل صحيح وعجلة ، منظمة العفو الدولية هي الحدود الجديدة في إخضاع المرأة.

يقول بيتس: “أعرف أن الناس سوف يفكرون في أنها تبدو وكأنها نسوية تسيطر على اللؤلؤ ، ولكنها إذا نظرت إلى قمة شركات التكنولوجيا الكبيرة ، فإن الرجال في تلك المستويات يقولون بالضبط نفس الشيء الذي أنا عليه” ، مشيرًا إلى جان ليك ، الذي غادر Openai في العام الماضي وسط مخاوف من الشركة التي تعطي “منتجات متلألئة” ، على سبيل المثال. “إن دعوة التحذير هذه تبدو من قبل أشخاص مضمنين في هذه الشركات بمستويات عالية. والسؤال هو ما إذا كنا مستعدين للاستماع.”

يتحدث بيتس أيضًا إلى Wired حول كيفية وصول صديقات الذكاء الاصطناعي والمساعدين الافتراضيين إلى أطفال كره النساء في الأطفال ، وصول البصمة البيئية لمنظمة العفو الدولية للنساء أولاً ، وكيف لا يستغرق الأمر وقتًا طويلاً لتقنيات جديدة لانتقالها إلى التحيزات المتعصبة لمبدعيها والمستخدمين.

تم تكثيف هذه المقابلة وتحريرها للطول والوضوح.

Wired: شيء واحد أدهشني حول كتابك هو أنه لا يستغرق وقتًا طويلاً حتى ينقل التطورات الجديدة إلى كره النساء. هل تعتقد أن هذا من العدل أن تقول؟

لورا بيتس: إنه نمط طويل ومشعر جيدًا. لقد رأينا ذلك مع الإنترنت ، لقد رأينا ذلك مع وسائل التواصل الاجتماعي ، لقد رأيناها مع المواد الإباحية عبر الإنترنت. دائمًا تقريبًا ، عندما نتوخّم بما يكفي للوصول إلى أشكال جديدة من التكنولوجيا ، سيكون هناك مجموعة فرعية مهمة من تلك التي ستنتهي بسرعة كبيرة إلى أن تكون مصممة لتحرش النساء ، وإساءة استخدام النساء ، وإخضاع النساء ، والحفاظ على السيطرة الأبوية على النساء. السبب في ذلك هو أن التكنولوجيا نفسها ليست جيدة بطبيعتها أو سيئة أو أي شيء واحد ؛ إنه مشفر مع تحيز المبدعين. إنها تعكس الأشكال المجتمعية التاريخية لروث النساء ، لكنه يمنحهم حياة جديدة. إنه يمنحهم وسائل جديدة للوصول إلى الأهداف وأشكال جديدة من سوء المعاملة. ما يقلق بشكل خاص حول هذه الحدود الجديدة من التكنولوجيا مع AI والأشكال التوليدية من الذكاء الاصطناعى على وجه الخصوص هو أنها لا تتجول فقط في تلك الأشكال الحالية من سوء المعاملة فينا – إنها تكثفها من خلال أشكال أخرى من التهديدات والتحرش والسيطرة التي يمارسها المعتدون.

شاركها.
اترك تعليقاً

Exit mobile version