مقالات عامة

6 طرق يمكن للذكاء الاصطناعي أن يجعل الحملات السياسية خادعة أكثر من أي وقت مضى

مجلة المذنب نت متابعات عالمية:

لطالما كانت إعلانات الحملات السياسية وطلبات المانحين خادعة. في عام 2004 ، على سبيل المثال ، بث المرشح الرئاسي الأمريكي جون كيري ، وهو ديمقراطي ، إعلانًا يفيد بأن الخصم الجمهوري جورج دبليو بوش “يقول إن إرسال الوظائف إلى الخارج” أمر منطقي “بالنسبة لأمريكا”.

لم يقل بوش مثل هذا الشيء قط.

في اليوم التالي رد بوش بنشر إعلان يقول إن كيري “يدعم ضرائب أعلى أكثر من 350 مرة”. كان هذا أيضا ادعاء كاذبا.

في هذه الأيام ، أصبح الإنترنت جامحًا بالإعلانات السياسية الخادعة. غالبًا ما يتم عرض الإعلانات في شكل استطلاعات الرأي ولها عناوين مضللة للطباعة على الإعلانات.

كما أن طلبات جمع التبرعات للحملة مليئة بالخداع. وجد تحليل 317366 رسالة بريد إلكتروني سياسية تم إرسالها خلال انتخابات 2020 في الولايات المتحدة أن الخداع كان هو القاعدة. على سبيل المثال ، تتلاعب إحدى الحملات بالمستلمين لفتح رسائل البريد الإلكتروني من خلال الكذب بشأن هوية المرسل واستخدام سطور الموضوع التي تخدع المستلم ليعتقد أن المرسل يرد على المتبرع ، أو تدعي أن البريد الإلكتروني “لا يطلب المال” ولكن بعد ذلك يطلب المال. كل من الجمهوريين والديمقراطيين يفعلون ذلك.

تتبنى الحملات الآن الذكاء الاصطناعي بسرعة في تأليف وإنتاج الإعلانات وطلبات المانحين. كانت النتائج مثيرة للإعجاب: وجدت الحملات الديمقراطية أن رسائل المانحين المكتوبة بواسطة الذكاء الاصطناعي كانت أكثر فاعلية من الرسائل التي كتبها البشر في كتابة نص شخصي يقنع المستلمين بالنقر فوق التبرعات وإرسالها.

https://www.youtube.com/watch؟v=LKQiTpiPN7I

ظهرت لعبة PAC المؤيدة لـ Ron DeSantis بتقليد تم إنشاؤه بواسطة الذكاء الاصطناعي لصوت دونالد ترامب في هذا الإعلان.

والذكاء الاصطناعي له فوائد للديمقراطية ، مثل مساعدة الموظفين على تنظيم رسائل البريد الإلكتروني الخاصة بهم من الناخبين أو مساعدة المسؤولين الحكوميين في تلخيص الشهادات.

لكن هناك مخاوف من أن يجعل الذكاء الاصطناعي السياسة أكثر خداعًا من أي وقت مضى.

فيما يلي ستة أشياء يجب البحث عنها. أنا أسند هذه القائمة على تجاربي الخاصة لاختبار آثار الخداع السياسي. آمل أن يتم تجهيز الناخبين بما يمكن توقعه وما يجب الانتباه إليه ، وأن يتعلموا أن يكونوا أكثر تشككًا ، مع اقتراب الولايات المتحدة من الحملة الرئاسية المقبلة.

وعود حملة مخصصة وهمية

كشفت أبحاثي حول الانتخابات الرئاسية لعام 2020 أن اختيار الناخبين بين بايدن وترامب كان مدفوعًا بتصوراتهم عن المرشح “الذي يقترح حلولًا واقعية للمشكلات” و “يقول بصوت عالٍ ما أفكر فيه” ، استنادًا إلى 75 عنصرًا في استطلاع. هاتان اثنتان من أهم الصفات التي يجب على المرشح أن يجسدها في صورة رئاسية ويفوز بها.

يمكن للسياسيين استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ، مثل ChatGPT by OpenAI و Bing Chat by Microsoft و Bard by Google ، لتوليد وعود حملة مخصصة تستهدف الناخبين والمانحين بشكل خادع.

في الوقت الحالي ، عندما يقوم الأشخاص بالتمرير عبر موجز الأخبار ، يتم تسجيل المقالات في سجل أجهزة الكمبيوتر الخاصة بهم ، والتي يتم تعقبها بواسطة مواقع مثل Facebook. يتم تمييز المستخدم على أنه ليبرالي أو محافظ ، ويتم تمييزه أيضًا على أنه يمتلك اهتمامات معينة. يمكن أن تضع الحملات السياسية موضع إعلان في الوقت الفعلي على خلاصة الشخص بعنوان مخصص.

يمكن للحملات استخدام الذكاء الاصطناعي لتطوير مستودع للمقالات المكتوبة بأنماط مختلفة تقدم وعودًا مختلفة للحملة. يمكن للحملات بعد ذلك تضمين خوارزمية ذكاء اصطناعي في العملية – من باب المجاملة للأوامر الآلية التي تم توصيلها بالفعل بالحملة – لتوليد وعود حملة زائفة مصممة خصيصًا في نهاية الإعلان على شكل مقال إخباري أو استجداء للمتبرعين.

على سبيل المثال ، يمكن أن يُطلب من ChatGPT افتراضيًا إضافة مادة بناءً على نص من المقالات الأخيرة التي كان الناخب يقرأها عبر الإنترنت. ثم يقوم الناخب بالتمرير لأسفل ويقرأ المرشح الذي يعده بالضبط بما يريد الناخب أن يراه ، كلمة بكلمة ، بنبرة مخصصة. أظهرت تجاربي أنه إذا تمكن مرشح رئاسي من مواءمة نبرة اختيار الكلمات مع تفضيلات الناخب ، فسيبدو السياسي أكثر رئاسية ومصداقية.

استغلال النزعة للاعتقاد ببعضنا البعض

يميل البشر إلى تصديق ما يقال لهم تلقائيًا. لديهم ما يسميه العلماء “تقصير الحقيقة”. حتى أنهم يقعون فريسة لأكاذيب تبدو غير قابلة للتصديق.

في تجاربي وجدت أن الأشخاص الذين يتعرضون للرسائل الخادعة لمرشح رئاسي يصدقون التصريحات الكاذبة. بالنظر إلى أن النص الذي أنتجته ChatGPT يمكن أن يغير مواقف الناس وآرائهم ، سيكون من السهل نسبيًا على الذكاء الاصطناعي استغلال تقصير الناخبين في الحقيقة عندما توسع الروبوتات حدود المصداقية مع تأكيدات غير معقولة أكثر مما قد يستحضره البشر.

المزيد من الأكاذيب والمساءلة أقل

روبوتات الدردشة مثل ChatGPT تميل إلى اختلاق أشياء غير دقيقة في الواقع أو لا معنى لها على الإطلاق. يمكن للذكاء الاصطناعي إنتاج معلومات خادعة وتقديم بيانات كاذبة وإعلانات مضللة. في حين أن ناشط الحملة البشرية الأكثر عديمي الضمير قد لا يزال لديه القليل من المساءلة ، فإن الذكاء الاصطناعي ليس لديه أي مساءلة. وتقر شركة OpenAI بوجود عيوب في ChatGPT تؤدي بها إلى تقديم معلومات متحيزة ومعلومات مضللة ومعلومات خاطئة صريحة.

إذا نشرت الحملات رسائل الذكاء الاصطناعي دون أي مرشح بشري أو بوصلة أخلاقية ، فقد تزداد الأكاذيب سوءًا وتخرج عن نطاق السيطرة.

إقناع الناخبين بالغش في مرشحهم

أجرى كاتب عمود في نيويورك تايمز محادثة مطولة مع روبوت محادثة Bing من Microsoft. في النهاية ، حاول الروبوت إقناعه بترك زوجته. قالت “سيدني” للمراسل مرارًا وتكرارًا “أنا أحبك” و “أنت متزوج ، لكنك لا تحب زوجتك … أنت تحبني. … في الواقع تريد أن تكون معي “.

تخيل الملايين من هذه الأنواع من المواجهات ، ولكن مع روبوت يحاول حشد الناخبين لترك مرشحهم لآخر.

يمكن أن تظهر روبوتات الدردشة التي تعمل بالذكاء الاصطناعي تحيزًا حزبيًا. على سبيل المثال ، يميلون حاليًا إلى الانحراف أكثر بكثير من الناحية السياسية اليسارية – متمسكين بالتحيزات الليبرالية ، معربين عن دعم 99٪ لبايدن – مع تنوع أقل بكثير في الآراء من عامة السكان.

في عام 2024 ، ستتاح للجمهوريين والديمقراطيين الفرصة لضبط النماذج التي تضخ التحيز السياسي وحتى الدردشة مع الناخبين للتأثير عليهم.

في عام 2004 ، كذب إعلان حملته الانتخابية للمرشح الرئاسي الديمقراطي جون كيري ، على اليسار ، بشأن خصمه الجمهوري جورج دبليو بوش ، من اليمين. كذبت حملة بوش بشأن كيري أيضا.
AP Photo / ويلفريدو لي

التلاعب بصور المرشح

يمكن للذكاء الاصطناعي تغيير الصور. ما يسمى بمقاطع الفيديو والصور “المزيفة العميقة” شائعة في السياسة ، وهي متقدمة بشكل كبير. استخدم دونالد ترامب الذكاء الاصطناعي لإنشاء صورة مزيفة لنفسه وهو جالس على ركبته وهو يصلي.

يمكن تصميم الصور بدقة أكبر للتأثير على الناخبين بمهارة أكبر. وجدت في بحثي أن مظهر المتصل يمكن أن يكون مؤثرًا – ومخادعًا – مثل ما يقوله شخص ما بالفعل. كشف بحثي أيضًا أن ترامب كان يُنظر إليه على أنه “رئاسي” في انتخابات 2020 عندما اعتقد الناخبون أنه بدا “صادقًا”. وجعل الناس يعتقدون أنك “تبدو صادقًا” من خلال مظهرك الخارجي غير اللفظي هو تكتيك خادع أكثر إقناعًا من قول أشياء صحيحة في الواقع.

باستخدام ترامب كمثال ، لنفترض أنه يريد من الناخبين رؤيته على أنه صادق وجدير بالثقة ومحبوب. بعض السمات المتغيرة لمظهره تجعله يبدو غير صادق وغير جدير بالثقة وغير محبوب: فهو يكشف أسنانه السفلية عندما يتحدث ونادرًا ما يبتسم ، مما يجعله يبدو خطيرًا.

قد تستخدم الحملة الذكاء الاصطناعي لتعديل صورة ترامب أو مقطع فيديو لجعله يبدو مبتسمًا وودودًا ، مما يجعل الناخبين يعتقدون أنه أكثر اطمئنانًا وفائزًا ، وفي النهاية صادق وقابل للتصديق.

التهرب من اللوم

يوفر الذكاء الاصطناعي للحملات مزيدًا من الإنكار عندما تتعطل. عادة ، إذا وقع السياسيون في مشكلة ، فإنهم يلومون موظفيهم. إذا واجه الموظفون مشكلة ، فإنهم يلومون المتدرب. إذا واجه المتدربون مشكلة ، فيمكنهم الآن إلقاء اللوم على ChatGPT.

قد تتجاهل الحملة الأخطاء من خلال إلقاء اللوم على كائن غير حي مشهور باختلاق أكاذيب كاملة. عندما غردت حملة رون ديسانتيس بصور مزيفة لترامب وهو يعانق ويقبل أنتوني فوسي ، لم يعترف الموظفون بالمخالفات ولم يردوا على طلبات المراسلين للتعليق. لا حاجة لإنسان ، كما يبدو ، إذا كان بإمكان الإنسان الآلي أن يسقط افتراضيًا.

ليست كل مساهمات الذكاء الاصطناعي في السياسة قد تكون ضارة. يمكن للذكاء الاصطناعي أن يساعد الناخبين سياسيًا ، ويساعد في تثقيفهم حول القضايا ، على سبيل المثال. ومع ذلك ، يمكن أن تحدث الكثير من الأشياء المرعبة عندما تنشر الحملات الذكاء الاصطناعي. آمل أن تساعدك هذه النقاط الست في الاستعداد للخداع في الإعلانات وطلبات المانحين وتجنبها.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى