هل يشكل الذكاء الاصطناعي خطرًا على الانتخابات والديمقراطية؟
شارك هذا الخبر
Sunday, May 21, 2023
حذر خبراء من أن انتخابات العام المقبل في بريطانيا والولايات المتحدة قد تشهد موجة من المعلومات المغلوطة المنتجة بالذكاء الاصطناعي، مثل الصور المخلقة ومقاطع الفيديو المزيفة بتقنية «ديب فيك»، والتي قد تنتشر على نطاق واسع بفضل بوتات دعاية مدعومة بالذكاء الاصطناعي.
سام ألتمان، المدير التنفيذي لشركة «أوبن إيه آي» مطورة تطبيق «شات جي بي تي»، قال أمام لجنة استماع في الكونغرس الأميركي، (الأربعاء) الماضي، إن النماذج التي نتج عنها الجيل الجديد من تكنولوجيا الذكاء الاصطناعي قد تتلاعب بالمستخدمين.
وأضاف، كما ذكرت صحيفة «الغارديان»: «القدرة العامة لهذه النماذج على التلاعب والإقناع، وتوفير معلومات مغلوطة تفاعلية، أمر مقلق للغاية».
وتابع: «إصدار لوائح منظمة سيكون جيداً. الناس يجب أن تعرف إذا كانت تتحدث إلى تطبيق ذكاء اصطناعي، أو هل المحتوى الذي يرونه مُخلق بالذكاء الاصطناعي أم لا. القدرة على صنع النماذج لتوقع تصرفات البشر، أظن أنها ستتطلب تحالفاً من الشركات يقوم بالأمر الصحيح، وهو إصدار لوائح منظمة وتثقيف العامة».
وقال رئيس الوزراء البريطاني ريشي سوناك، يوم (الخميس)، إن المملكة المتحدة ستكون في طليعة الدول للتقليل من مخاطر الذكاء الاصطناعي. المخاوف من تلك التكنولوجيا ارتفعت بشدة عقب التطور السريع في المواد المخلقة عن طريق الذكاء الاصطناعي، فأدوات مثل «تشات جي بي تي» ChatGPT و«ميدجورني» Midjourney قادرة على إنتاج صور ونصوص وأصوات مقنعة وفقاً للمطلوب.
في الموجات السابقة، اعتمدت بوتات الدعاية على رسائل نصية مكتوبة مسبقاً، ويتم إرسالها إلى الجموع، أو أعداد كبيرة من الأفراد يتقاضون أجوراً حتى ينخرطوا في محادثات مع آخرين، أما الآن فتكنولوجيا مثل «تشات جي بي تي» ChatGPT ومثيلاتها تزيد من خطورة التدخل في الانتخابات بشكل تفاعلي وعلى نطاق واسع.
فتطبيق ذكاء اصطناعي مدرب على التحدث في نقاط معينة، مثل ملف تايوان، أو التغير المناخي، يمكنه إشغال المهتمين بالسياسة في نقاشات غير مثمرة، بينما يقنع جمهوراً بالآلاف على السوشيال ميديا في الوقت نفسه.
وقال مدير أبحاث الذكاء الاصطناعي بمعهد آلان تورنغ البروفيسور مايكل ولدريدج، إن نشر معلومات مغلوطة مدعومة بالذكاء الاصطناعي هو قلقه الرئيسي من هذه التكنولوجيا.
واستطرد: «الآن أكثر ما يقلقني بخصوص الذكاء الاصطناعي هو أن هناك انتخابات ستقام قريباً في المملكة المتحدة والولايات المتحدة، وكما نعرف فالسوشيال ميديا وسيلة قوية لنشر المعلومات المغلوطة، ونعرف أيضاً أن الذكاء الاصطناعي التوليدي يمكنه إنتاج معلومات مغلوطة بكميات كبيرة».
وأوضح ولدريدج أن روبوتات الدردشة مثل «تشات جي بي تي» يمكنه نسج معلومات مغلوطة تستهدف، على سبيل المثال، شخصاً محافظاً يعيش في إحدى المقاطعات، أو عاملاً يعيش في العاصمة، أو مؤيداً للجمهوريين في وسط غرب الولايات المتحدة.
وأضاف: «أي شخص لديه بعض الخبرة بالبرمجة يمكنه إنشاء هويات مزيفة والبدء في توليد أخبار مغلوطة».
وأبدى العديد من الخبراء قلقهم من الصور المخلقة التي تستخدم للإرباك ونشر المعلومات المغلوطة، وذلك بعدما انتشرت صور مزيفة في مارس (آذار) تظهر الشرطة تلقي القبض على الرئيس الأميركي السابق دونالد ترمب في نيويورك، وأيضاً صورة للبابا فرنسيس يرتدي جاكيت منفوخاً.
قلل سام ألتمان من أهمية هذه المخاوف، وقال أمام لجنة الكونغرس: «ظهر برنامج (فوتوشوب) منذ سنوات طويلة، ولبعض الوقت انخدع الناس في صور معدلة، لكن سريعاً تعلموا أن هذه الصور قد تكون معدلة بالفوتوشوب».
لكن إمكانات الذكاء الاصطناعي تتطور وتصبح أكثر احترافية، وهناك مخاوف من أنه قد يصبح من الصعب تصديق أي شيء نصادفه على الإنترنت، ونسأل: هل هو معلومات مضللة، أو معلومات مغلوطة عن عمد؟
فتقنية تقليد الأصوات أصبحت شهيرة في يناير (كانون الثاني) الماضي، عندما انتشر فيديو مزيف على السوشيال ميديا للرئيس الأميركي جو بايدن يتحدث فيه عن إرسال دبابات إلى أوكرانيا، وتم تزييفه بتقنية تقليد الأصوات ليظهر وكأنه يدعو للتهجم على فئة معينة.
هذا الفيديو أنتج بواسطة أداة من شركة أميركية هي «إيلفن لابز»، وانتشار فيديو بايدن ساهم في دفع الناس لإنتاج فيديوهات أخرى مثل فيديو مزيف لبيل غيتس يقول فيه إن لقاح «كوفيد-19» يسبب مرض الإيدز.
شركة «إيلفن لابز» اعترفت بأنها رصدت استخداماً متزايداً لتقنية تزييف الأصوات، ما دفعها لتشديد الإجراءات ضد استخدام تلك التكنولوجيا في أعمال مزعجة.
وقال محلل المعلومات في شركة «ريكورد فيوتشر» الأميركية للأمن الإلكتروني إليكساندر ليزلي إنه من دون نشر الوعي والتعليم ستصبح هذه التقنيات خطراً داهماً ونحن نقترب من الانتخابات الرئاسية الأميركية.