Close Menu
الشرق تايمزالشرق تايمز
  • الرئيسية
  • اخر الاخبار
  • العالم
  • سياسة
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • رياضة
  • سياحة وسفر
  • صحة وجمال
  • مقالات
  • منوعات
روابط هامة
  • الرئيسية
  • سياسة الخصوصية
  • من نحن
  • إعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام يوتيوب
الشرق تايمزالشرق تايمز  اختر منطقتك
|
               
  حالة الطقس
الشرق تايمزالشرق تايمز
الرئيسية»تكنولوجيا
تكنولوجيا

2024 هو عام انتخابات الذكاء الاصطناعي التوليدي

الشرق برسالشرق برسالخميس 30 مايو 7:15 ملا توجد تعليقات
فيسبوك تويتر بينتيريست واتساب تيلقرام البريد الإلكتروني

يعرف الخبراء أن الذكاء الاصطناعي التوليدي مستعد لإحداث تغيير جذري في مشهد المعلومات، ومن المرجح أن تتفاقم المشاكل التي ابتليت بها منصات التكنولوجيا منذ فترة طويلة – مثل المعلومات الخاطئة والمضللة، والاحتيال، والمحتوى الذي يحض على الكراهية – على الرغم من الحواجز التي تقول الشركات إنها وضعتها. ضعها في مكان.

هناك عدة طرق لمعرفة ما إذا كان قد تم صنع شيء ما أو التلاعب به باستخدام الذكاء الاصطناعي: ربما أكد الأشخاص أو الحملات استخدامه؛ ربما يكون مدققو الحقائق قد قاموا بتحليل وفضح شيء منتشر في العالم؛ أو ربما يتم استخدام محتوى الذكاء الاصطناعي بشكل واضح لشيء مثل الهجاء. في بعض الأحيان، إذا كنا محظوظين، يتم وضع علامة مائية عليه، مما يعني أن هناك شيئًا يشير إلى أنه تم إنشاؤه أو تغييره بواسطة الذكاء الاصطناعي. لكن الحقيقة هي أن هذا على الأرجح لا يمثل سوى بعض مما هو موجود بالفعل. ومن المؤكد تقريبًا أنه حتى مجموعة البيانات الخاصة بنا أقل من العدد الحقيقي.

وهذا يقودنا إلى قضية أخرى: وكما قال الصحفي البريطاني بيتر بوميرانتسيف: “عندما لا يكون هناك شيء حقيقي، فإن كل شيء ممكن”. في النظام البيئي للمعلومات حيث يمكن لأي شيء أن يكون ذكاءً اصطناعيًا منتجًا، من السهل على السياسيين أو الشخصيات العامة أن يقولوا إن شيئًا حقيقيًا هو مزيف – وهو ما يُعرف باسم “أرباح الكاذب”. وهذا يعني أن الناس قد يكونون أقل عرضة لتصديق المعلومات حتى عندما تكون صحيحة. أما بالنسبة لمدققي الحقائق والصحفيين، فإن الكثير منهم لا يملكون الأدوات المتاحة لتقييم ما إذا كان الذكاء الاصطناعي قد تم صنع شيء ما أو التلاعب به. مهما كان ما يحمله هذا العام، فمن المرجح أن يكون مجرد غيض من فيض.

لكن مجرد كون الشيء مزيفًا لا يجعله سيئًا. لقد وجدت تقنية التزييف العميق موطنًا لها في السخرية، ويمكن لروبوتات الدردشة (في بعض الأحيان) تقديم معلومات جيدة، ومن الممكن أن تجعل الحملات التوعية الشخصية الناس يشعرون بأن ممثليهم السياسيين يرونهم.

إنه عالم جديد وشجاع، ولكن هذا هو السبب في أننا نتتبعه.

غرفة الدردشة

كجزء من مشروع الذكاء الاصطناعي الخاص بنا، نطلب من القراء إرسال أي أمثلة للذكاء الاصطناعي التوليدي الذي تواجهه في البرية هذا العام الانتخابي.

للحصول على فكرة أفضل عن كيفية تقييمنا لعمليات الإرسال (أو حتى الأشياء التي نجدها) ولإرسال واحدة إلينا، راجع هذا الرابط هنا. إذا لم تكن متأكدًا مما إذا كان شيء ما مصنوعًا من الذكاء الاصطناعي التوليدي أو مجرد تزييف عادي ورخيص، فأرسله على أي حال وسننظر في الأمر.

💬 اترك تعليقا أسفل هذه المقالة.

يقرأ السلكية

هل تريد المزيد؟ إشترك الآن للوصول غير المحدود إلى WIRED.

ماذا نقرأ أيضًا

🔗 تقول TikTok إنها أزالت حملة تأثير نشأت في الصين: قالت TikTok الأسبوع الماضي إنها حذفت آلاف الحسابات المرتبطة بـ 15 حملة تأثير صينية على منصاتها. (واشنطن بوست)

🔗 راماسوامي يحث BuzzFeed على خفض الوظائف وبث المزيد من الأصوات المحافظة: فيفيك راماسوامي، المرشح الرئاسي الجمهوري السابق، هو الآن مستثمر نشط في BuzzFeed. وهو يريد أن يجذب المنشور القراء المحافظين ويقول إنه “كذب” في تقاريره عن دونالد ترامب وكوفيد، من بين موضوعات أخرى. (بلومبرج)

🔗 تقوم OpenAI بإنشاء مجلس مراقبة يضم Sam Altman بعد حل فريق السلامة: وسيقدم مجلس الإدارة الجديد توصيات بشأن السلامة والأمن، وسيكون أمامه 90 يومًا “لمواصلة تطوير عمليات OpenAI وضماناتها”، وفقًا لمدونة الشركة. (بلومبرج)

تحميل

شيء أخير! تحدثت هذا الأسبوع في البودكاست مع محررتنا ومضيفتنا ليا فيجر حول مشروع انتخابات الذكاء الاصطناعي. إعطائها الاستماع!

بالإضافة إلى الحديث عن المشروع الجديد (هل يمكنك أن تقول إنني متحمس؟)، انضم إلينا نيليش كريستوفر، الذي قدم تقريرًا عن دور التزييف العميق في الانتخابات الهندية لـ WIRED. أهم ما يمكن تعلمه هو أن الانتخابات الهندية ستنتهي قريبًا، والعديد من شركات الذكاء الاصطناعي المزدهرة في البلاد تبحث عن أسواق جديدة قد تكون مهتمة بأدواتها، وربما حتى انتخابات قريبة منك.

هذا كل شيء لهذا اليوم. شكرا مرة أخرى على الاشتراك. يمكنك التواصل معي عبر البريد الإلكتروني و X.

مصدر الصورة: صور غيتي

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب تيلقرام البريد الإلكتروني

مقالات ذات صلة

غرسة دماغية للاكتئاب ستُختبر على البشر قريبًا.

شركة CNTXT AI تطلق نموذج “مُنصِت” الإماراتي لتحويل النص إلى كلام، أدق نموذج صوتي إماراتي أصيل، واضعةً معياراً جديداً لدقة وتطوّر تقنيات النطق باللغة العربية

شركة CNTXT AI تطلق نموذج “مُنصِت” الإماراتي لتحويل النص إلى كلام، أدق نموذج صوتي إماراتي أصيل، واضعةً معياراً جديداً لدقة وتطوّر تقنيات النطق باللغة العربية

موظفو بالانتير يبدأون التساؤل عما إذا كانوا الطرف الخصم.

أفضل أجهزة الكمبيوتر المحمولة للألعاب (2026): رايزر، أسوس، ديل، وغيرها.

كيفية مشاهدة ذروة شهاب الليريد (Lyrid Meteor Shower) لعام 2026.

هيونداي أيونيك 3 لعام 2026: السعر والمواصفات والتوفر.

ازدهار الروايات الرقمية يعيد تصور التاريخ الصيني.

أفضل كاشف دخان ذكي (ولماذا لا تزال تحتاج إلى كاشف تقليدي).

اترك تعليقاً
اترك تعليقاً إلغاء الرد

Demo

اخر الأخبار

آنه هاثاواي ترتدي بنطلون رياضي بطريقة غير تقليدية وأنيقة.

رئيس الوزراء الهنغاري المكلف بيتر ماغيار يعرض لقاء رئيس أوكرانيا في يونيو.

غرسة دماغية للاكتئاب ستُختبر على البشر قريبًا.

شركة CNTXT AI تطلق نموذج “مُنصِت” الإماراتي لتحويل النص إلى كلام، أدق نموذج صوتي إماراتي أصيل، واضعةً معياراً جديداً لدقة وتطوّر تقنيات النطق باللغة العربية

شركة CNTXT AI تطلق نموذج “مُنصِت” الإماراتي لتحويل النص إلى كلام، أدق نموذج صوتي إماراتي أصيل، واضعةً معياراً جديداً لدقة وتطوّر تقنيات النطق باللغة العربية

رائج هذا الأسبوع

تحطم طائرة مسيرة في رومانيا مع استمرار القصف الروسي لأوكرانيا.

العالم السبت 25 أبريل 5:57 م

روني أوساليڤان يتغلب على تعثر في (الكروسبل) ويتقدم في افتتاح بطولة العالم ضد خه قوه تشيانغ.

رياضة السبت 25 أبريل 5:53 م

أهمية فحص الكهرباء وكشف تسربات المياه قبل شراء المنازل

منوعات السبت 25 أبريل 3:23 م

تشيلسي وإنهاء الهجمات تحت قيادة ليام روزينيور، ودفاع نيوكاسل تحت إيدي هاو وإحصائيات فلوريان فيرتز في (The Debrief).

رياضة الجمعة 24 أبريل 10:35 م

سعر النفط يتجاوز 116 دولارًا للبرميل مع اتهام إيران للولايات المتحدة بالتحضير لغزو (invasion).

اخر الاخبار الجمعة 24 أبريل 6:25 م
الشرق تايمز
فيسبوك X (Twitter) الانستغرام بينتيريست
  • الرئيسية
  • سياسة الخصوصية
  • من نحن
  • إعلن معنا
  • اتصل بنا
2026 © الشرق برس. جميع حقوق النشر محفوظة.

اكتب كلمة البحث ثم اضغط على زر Enter

تسجيل الدخول أو التسجيل

مرحبًا بعودتك!

Login to your account below.

نسيت كلمة المرور؟