في أعقاب إطلاق نار وقع في مدينة مينيابوليس بولاية مينيسوتا، انتشرت على نطاق واسع عبر وسائل التواصل الاجتماعي صور معدلة بالذكاء الاصطناعي، زعمت كشف هوية الوكيل الفيدرالي المتورط في الحادث. يأتي هذا التطور في وقت يزداد فيه استخدام الذكاء الاصطناعي في نشر معلومات مضللة، مما يثير تساؤلات حول موثوقية المحتوى المرئي على الإنترنت. وقد أعلنت وزارة الأمن الداخلي أن الوكيل هو من مكتب التحقيقات والمراقبة الجمركية (ICE).
وقع الحادث يوم الأربعاء، حيث أظهرت مقاطع الفيديو المتداولة وكلاء فدراليين مدججين بالسلاح يحيطون بسيارة رياضية متعددة الاستخدامات (SUV) متوقفة. بعد ذلك، أطلق أحد الوكلاء النار على السائقة، رينيه نيكول جود، البالغة من العمر 37 عامًا، مما أدى إلى وفاتها. واستخدم رواد الإنترنت هذه المقاطع في محاولات لتحديد هوية الوكيل، باستخدام أدوات تعديل الصور التي تعتمد على الذكاء الاصطناعي.
انتشار صور مُعدَّلة بالذكاء الاصطناعي وتضليل الرأي العام
أظهرت التحقيقات الأولية أن الوكلاء كانوا يرتدون أقنعة أثناء الحادث، ولم تظهر أي من مقاطع الفيديو أو الصور الأصلية ملامحهم بوضوح. ومع ذلك، بدأت صور مُعدَّلة تظهر بسرعة، تزعم الكشف عن وجه الوكيل الذي أطلق النار. وقد شارك العديد من المستخدمين هذه الصور مع تعليقات تدعو إلى الكشف عن اسمه وعنوانه.
تحديات تحديد الهوية من خلال الصور المُعزَّزة بالذكاء الاصطناعي
يؤكد خبراء في مجال الذكاء الاصطناعي أن هذه الصور المُعزَّزة غالبًا ما تكون غير دقيقة. وحسبما صرّح هاني فريد، أستاذ جامعة كاليفورنيا، بيركلي، المتخصص في تحليل الصور الرقمية، فإن تقنيات الذكاء الاصطناعي لديها ميل إلى “هلوسة” التفاصيل الوجهية، مما يؤدي إلى إنشاء صور تبدو واضحة ولكنها لا تعكس الواقع. وأضاف أن إعادة إنشاء الوجه بدقة من صورة جزئية أمر مستحيل عمليًا.
بالإضافة إلى ذلك، لم تقتصر هذه الظاهرة على مجرد مشاركة الصور المُعدَّلة، بل امتدت إلى نشر أسماء أشخاص حقيقيين دون دليل قاطع يربطهم بالحادث. وقد أدت هذه الأسماء إلى مضايقات عبر الإنترنت للأفراد المعنيين.
اتهامات باطلة لشخصيات عامة
من بين الأسماء التي تم تداولها على نطاق واسع اسم ستيف جروف، الرئيس التنفيذي وناشر صحيفة “مينيسوتا ستار تريبيون”. وقد نفى متحدث باسم الصحيفة بشكل قاطع أي ارتباط لجروف بالوكيل المتورط في الحادث، واصفًا هذه الادعاءات بأنها جزء من حملة تضليل منظمة. وأكدوا أن جروف لم يكن مطلقًا منتمياً لوكالة ICE.
هذه ليست المرة الأولى التي يتسبب فيها الذكاء الاصطناعي في انتشار معلومات خاطئة بعد حادث إطلاق نار. ففي سبتمبر الماضي، شهدت قضية مماثلة انتشار صورة مُعدَّلة للشخص المتهم بإطلاق النار في حادث أدى إلى مقتل شخص، وكانت الصورة بعيدة كل البعد عن ملامح المتهم الفعلي الذي تم القبض عليه لاحقًا. ويُظهر هذا التكرار نمطًا مقلقًا من استخدام تكنولوجيا الذكاء الاصطناعي في تشويه الحقائق.
وتشير التقارير إلى أن الدافع وراء انتشار هذه الصور المُعدَّلة يختلف بين المستخدمين، حيث يعتقد البعض أنهم يساهمون في تحقيق العدالة من خلال الكشف عن هوية الوكيل، بينما يسعى آخرون إلى إثارة الغضب والتفاعل على وسائل التواصل الاجتماعي. ومع ذلك، فإن النتيجة النهائية هي تقويض الثقة في المعلومات المرئية وتضليل الرأي العام.
يتزايد القلق بشأن استخدام الذكاء الاصطناعي في نشر الأخبار الكاذبة والتضليل. ترى العديد من المنصات الاجتماعية نفسها في موقف صعب، حيث تتطلب جهود مكافحة المعلومات المضللة موارد كبيرة وتوازنًا دقيقًا بين حرية التعبير وحماية الجمهور من الضرر. كما أن تطوير أدوات للكشف عن الصور والمقاطع المرئية المُعدَّلة يمثل تحديًا مستمرًا.
من المرجح أن تستمر التحقيقات الفيدرالية في القضية لتحديد ملابسات إطلاق النار وتحديد المسؤولية. في الوقت الحالي، لا يزال من غير الواضح ما إذا كانت الجهات الأمنية ستكشف عن هوية الوكيل المتورط في الحادث. ومع ذلك، فإن القضية تسلط الضوء على الحاجة الملحة إلى تطوير استراتيجيات فعالة لمواجهة التحديات التي يفرضها الذكاء الاصطناعي على مصداقية المعلومات وعلى الأمن العام.
يبقى الموقف قيد المراقبة، وسيكون من الضروري متابعة تطورات التحقيقات الرسمية، بالإضافة إلى ردود فعل وسائل التواصل الاجتماعي، لتقييم الأثر الكامل لهذه القضية على النقاش العام حول استخدام الذكاء الاصطناعي والمسؤولية عن المعلومات المنشورة على الإنترنت.










