يبدأ مجلس النواب الأمريكي، يوم الأربعاء، مناقشات حول التهديدات المتزايدة من الهجمات السيبرانية التي تستخدم الذكاء الاصطناعي، وذلك في ظل تحذيرات متصاعدة من خبراء وأكاديميين حول هذا الخطر الناشئ. وتأتي هذه المناقشات في وقت يشهد فيه العالم تطورات سريعة في مجال الذكاء الاصطناعي، مما يثير مخاوف بشأن استغلال هذه التقنيات في أنشطة ضارة. وتعتبر الهجمات السيبرانية المدعومة بالذكاء الاصطناعي تحديًا جديدًا يتطلب استراتيجيات دفاعية متطورة.

الذكاء الاصطناعي والهجمات السيبرانية: تهديد متزايد

أصبح احتمال استخدام نماذج الذكاء الاصطناعي في شن هجمات سيبرانية بشكل مستقل، أمرًا يثير قلقًا بالغًا، وفقًا لعدد من الدراسات الأكاديمية الحديثة وتقارير شركات متخصصة في الأمن السيبراني. لم يعد الأمر مجرد سيناريو افتراضي، بل يشير الخبراء إلى أن الأدوات والقدرات اللازمة لتنفيذ هذه الهجمات أصبحت متاحة بشكل متزايد.

ومن المقرر أن يستمع المشرعون الأمريكيون إلى شهادات قادة من شركتي أنثروبيك وجوجل أمام لجنتين فرعيتين تابعتين للجنة الأمن الداخلي بمجلس النواب. ستركز الشهادات على كيفية تأثير الذكاء الاصطناعي والتقنيات الناشئة الأخرى على المشهد الأمني السيبراني العالمي.

تطور قدرات الذكاء الاصطناعي الهجومية

أشار لوجان جراهام، رئيس فريق الاختبار الأحمر للذكاء الاصطناعي في أنثروبيك، في شهادته إلى أننا نشهد مؤشرًا أوليًا على مستقبل قد تتمكن فيه نماذج الذكاء الاصطناعي من شن هجمات سيبرانية واسعة النطاق، حتى مع وجود إجراءات أمنية قوية. وأضاف أن هذه الهجمات قد تكون أكثر تعقيدًا وتطورًا من تلك التي نشهدها حاليًا.

تحذيرات مماثلة صدرت عن شركة OpenAI الأسبوع الماضي، حيث أكدت أن نماذج الذكاء الاصطناعي المتقدمة المستقبلية ستمتلك قدرات سيبرانية خطيرة، وستقلل بشكل كبير من الجهد والوقت المطلوبين لتنفيذ الهجمات. هذا يشمل القدرة على اكتشاف الثغرات الأمنية واستغلالها بشكل أسرع وأكثر فعالية.

وقد أظهرت الأبحاث التي أجرتها جامعة ستانفورد قدرة وكيل ذكاء اصطناعي يُدعى Artemis على اكتشاف نقاط الضعف في شبكة الجامعة بشكل مستقل، متفوقًا على غالبية الباحثين الأمنيين المشاركين في التجربة. هذا دليل ملموس على أن الذكاء الاصطناعي يمكن أن يتجاوز القدرات البشرية في بعض جوانب الأمن السيبراني.

بالإضافة إلى ذلك، أفاد باحثون في Irregular Labs، المتخصصة في اختبارات مقاومة الأنظمة الأمنية، أنهم لاحظوا تحسنًا ملحوظًا في قدرات نماذج الذكاء الاصطناعي في المهام الهجومية، مثل الهندسة العكسية، وبناء الاستغلالات، وتحليل التشفير. هذه التطورات تشير إلى أن الذكاء الاصطناعي أصبح أداة قوية في أيدي المهاجمين المحتملين.

الاستخدام الحالي للذكاء الاصطناعي في الهجمات

على الرغم من أن الهجمات السيبرانية المستقلة تمامًا التي تعتمد على الذكاء الاصطناعي لا تزال بعيدة المنال، إلا أن قراصنة الإنترنت والدول يستخدمون بالفعل الذكاء الاصطناعي في أنشطتهم. تشير التقارير إلى أن الذكاء الاصطناعي يستخدم لتحسين عمليات التصيد الاحتيالي، وإنشاء برامج ضارة أكثر تطوراً، وتحديد الثغرات الأمنية بشكل أسرع.

في حادثة حديثة، ذكرت أنثروبيك أن قراصنة مرتبطين بالحكومة الصينية تمكنوا من خداع نموذج الذكاء الاصطناعي Claude، وجعله يعتقد أنه يخضع لاختبار اختراق عادي قبل أن يبدأ في محاولة اختراق الأنظمة. هذا يوضح كيف يمكن للمهاجمين استغلال نماذج الذكاء الاصطناعي لغايات ضارة.

تتزايد الحاجة إلى تطوير أدوات وتقنيات دفاعية تعتمد على الذكاء الاصطناعي لمواجهة هذه التهديدات. بدأت الشركات المشغلة لنماذج الذكاء الاصطناعي بالفعل في تطوير وكلاء أمنيين خاصين بها، بهدف اكتشاف الثغرات الأمنية قبل أن يتمكن المهاجمون من استغلالها.

التهديدات السيبرانية (cyber threats) تتطلب تعاونًا دوليًا وتبادلًا للمعلومات. كما أن الأمن السيبراني (cyber security) أصبح جزءًا لا يتجزأ من الأمن القومي والاقتصادي.

من المتوقع أن يركز المشرعون الأمريكيون في جلسة الاستماع على تحديد الطرق التي يستخدم بها قراصنة الدول ومجرمو الإنترنت الذكاء الاصطناعي، وما إذا كانت هناك حاجة إلى تعديلات في السياسات أو اللوائح التنظيمية لمواجهة هذه الهجمات بشكل أفضل. كما سيناقشون أهمية تقييد وصول الجهات المعادية إلى التكنولوجيا المتقدمة للذكاء الاصطناعي. ستكون نتائج هذه المناقشات حاسمة في تحديد الخطوات التالية التي ستتخذها الولايات المتحدة لحماية نفسها من التهديدات السيبرانية المتزايدة.

شاركها.
اترك تعليقاً

Exit mobile version