مقالات عامة

يُجسد الذكاء الاصطناعي مشكلة “المتسابق المجاني” – وهذا هو السبب في أن هذا يشير إلى التنظيم

مجلة المذنب نت متابعات عالمية:

في 22 مارس 2023 ، نشر الآلاف من الباحثين وقادة التكنولوجيا – بما في ذلك Elon Musk والمؤسس المشارك لشركة Apple Steve Wozniak – رسالة مفتوحة تدعو إلى إبطاء سباق الذكاء الاصطناعي. على وجه التحديد ، أوصت الرسالة بأن توقف المعامل التدريب مؤقتًا على التقنيات الأقوى من GPT-4 الخاص بـ OpenAI ، وهو الجيل الأكثر تطورًا لأنظمة الذكاء الاصطناعي الحالية المولدة للغة ، لمدة ستة أشهر على الأقل.

إن دق ناقوس الخطر بشأن المخاطر التي يشكلها الذكاء الاصطناعي ليس بالأمر الجديد – فقد أصدر الأكاديميون تحذيرات بشأن مخاطر الآلات فائقة الذكاء لعقود حتى الآن. لا يوجد حتى الآن إجماع حول احتمالية إنشاء ذكاء عام اصطناعي وأنظمة ذكاء اصطناعي مستقلة تتناسب مع البشر أو تتجاوزهم في معظم المهام ذات القيمة الاقتصادية. ومع ذلك ، من الواضح أن أنظمة الذكاء الاصطناعي الحالية تشكل بالفعل الكثير من المخاطر ، من التحيز العنصري في تقنية التعرف على الوجه إلى التهديد المتزايد للمعلومات المضللة وغش الطلاب.

وبينما تدعو الرسالة الصناعة وصناع القرار إلى التعاون ، لا توجد حاليًا آلية لفرض مثل هذا التوقف المؤقت. بصفتي فيلسوفًا يدرس أخلاقيات التكنولوجيا ، لاحظت أن أبحاث الذكاء الاصطناعي تمثل “مشكلة الراكب الحر”. أنا أزعم أن هذا يجب أن يوجه كيفية استجابة المجتمعات لمخاطرها – وأن النوايا الحسنة لن تكون كافية.

ركوب مجانا

الانتفاع المجاني هو نتيجة شائعة لما يسميه الفلاسفة “مشاكل العمل الجماعي”. هذه مواقف يستفيد فيها كل فرد ، كمجموعة ، من فعل معين ، ولكن كأفراد ، سيستفيد كل عضو من عدم القيام بذلك.

تشمل هذه المشاكل في الغالب المنافع العامة. على سبيل المثال ، لنفترض أن سكان المدينة لديهم مصلحة جماعية في تمويل نظام مترو أنفاق ، الأمر الذي يتطلب أن يدفع كل منهم مبلغًا صغيرًا من خلال الضرائب أو الرسوم. سيستفيد الجميع ، ولكن من مصلحة كل فرد توفير المال وتجنب دفع نصيبه العادل. بعد كل شيء ، سيظل بإمكانهم الاستمتاع بمترو الأنفاق إذا دفع معظم الأشخاص الآخرين.

ومن هنا تأتي قضية “الراكب المجاني”: بعض الأفراد لن يساهموا بنصيبهم العادلة ولكنهم سيظلون يحصلون على “رحلة مجانية” – حرفيًا ، في حالة مترو الأنفاق. إذا فشل كل فرد في الدفع ، فلن يستفيد أحد.

يميل الفلاسفة إلى القول بأنه من غير الأخلاقي “الركوب الحر” ، لأن الدراجين الأحرار يفشلون في الرد بالمثل على دفع الآخرين نصيبهم العادل. يجادل العديد من الفلاسفة أيضًا بأن الدراجين الأحرار يفشلون في مسؤولياتهم كجزء من العقد الاجتماعي ، المبادئ التعاونية المتفق عليها بشكل جماعي والتي تحكم المجتمع. بمعنى آخر ، فشلوا في الوفاء بواجبهم في أن يكونوا أعضاء مساهمين في المجتمع.

توقف مؤقتا ، أو المضي قدما؟

مثل مترو الأنفاق ، يعد الذكاء الاصطناعي منفعة عامة ، نظرًا لقدرته على إكمال المهام بكفاءة أكبر بكثير من المشغلين البشريين: كل شيء بدءًا من تشخيص المرضى من خلال تحليل البيانات الطبية إلى تولي الوظائف عالية الخطورة في الجيش أو تحسين سلامة التعدين.

لكن كل من فوائده ومخاطره ستؤثر على الجميع ، حتى الأشخاص الذين لا يستخدمون الذكاء الاصطناعي شخصيًا. للحد من مخاطر الذكاء الاصطناعي ، لكل فرد مصلحة في إجراء أبحاث الصناعة بعناية وأمان وبإشراف وشفافية مناسبين. على سبيل المثال ، تشكل المعلومات المضللة والأخبار المزيفة بالفعل تهديدات خطيرة للديمقراطيات ، لكن الذكاء الاصطناعي لديه القدرة على مفاقمة المشكلة من خلال نشر “أخبار كاذبة” بشكل أسرع وأكثر فاعلية من الناس.

شاشة هاتف تعرض بيانًا من رئيس السياسة الأمنية في Meta يحذر من مقطع فيديو مزيف للرئيس الأوكراني فولوديمير زيلينسكي.
أوليفييه دوليري / وكالة الصحافة الفرنسية عبر Getty Images

حتى إذا أوقفت بعض شركات التكنولوجيا تجاربها طواعية ، فإن الشركات الأخرى سيكون لها مصلحة مالية في مواصلة أبحاث الذكاء الاصطناعي الخاصة بها ، مما يسمح لها بالمضي قدمًا في سباق التسلح للذكاء الاصطناعي. علاوة على ذلك ، فإن الإيقاف المؤقت لتجارب الذكاء الاصطناعي طواعية سيسمح للشركات الأخرى بالحصول على رحلة مجانية من خلال جني فوائد تطوير الذكاء الاصطناعي الأكثر أمانًا وشفافية ، جنبًا إلى جنب مع بقية المجتمع.

أقر سام التمان ، الرئيس التنفيذي لشركة OpenAI ، أن الشركة خائفة من المخاطر التي يشكلها نظام chatbot الخاص بها ، ChatGPT. قال في مقابلة مع ABC News: “يجب أن نكون حذرين هنا” ، مشيرًا إلى قدرة الذكاء الاصطناعي على إنتاج معلومات مضللة. “أعتقد أن الناس يجب أن يكونوا سعداء لأننا خائفون قليلاً من هذا.”

في رسالة نُشرت في 5 أبريل 2023 ، قالت شركة OpenAI إن الشركة تعتقد أن أنظمة الذكاء الاصطناعي القوية تحتاج إلى تنظيم لضمان تقييمات سلامة شاملة وأنها “ستشارك بنشاط مع الحكومات بشأن أفضل شكل يمكن أن يتخذه مثل هذا التنظيم”. ومع ذلك ، تواصل OpenAI الانتشار التدريجي لـ GPT-4 ، وتواصل بقية الصناعة أيضًا تطوير وتدريب أنظمة الذكاء الاصطناعي المتقدمة.

حان وقت التنظيم

أظهرت عقود من أبحاث العلوم الاجتماعية حول مشاكل العمل الجماعي أنه عندما تكون الثقة وحسن النية غير كافيين لتجنب المتسابقين الأحرار ، غالبًا ما يكون التنظيم هو البديل الوحيد. الامتثال الطوعي هو العامل الرئيسي الذي يخلق سيناريوهات الراكب الحر – والعمل الحكومي في بعض الأحيان هو السبيل للقضاء عليه في مهده.

علاوة على ذلك ، يجب أن تكون هذه اللوائح قابلة للتنفيذ. بعد كل شيء ، قد يكون من غير المرجح أن يدفع ركاب المترو المحتملين الأجرة ما لم يكن هناك تهديد بالعقاب.

خذ على سبيل المثال واحدة من أكثر مشاكل الراكب الحر إثارة في العالم اليوم: تغير المناخ. ككوكب ، لدينا جميعًا مصلحة كبيرة في الحفاظ على بيئة صالحة للسكن. ومع ذلك ، في نظام يسمح للركاب بالمجان ، فإن الحوافز التي تدفع أي دولة لاتباع إرشادات أكثر مراعاة للبيئة تكون ضئيلة.

اتفاقية باريس ، التي تعد حاليًا أكثر الاتفاقات العالمية شمولاً بشأن تغير المناخ ، هي اتفاقية طوعية ، وليس لدى الأمم المتحدة أي ملاذ لتطبيقها. حتى إذا قام الاتحاد الأوروبي والصين طواعية بالحد من انبعاثاتهما ، على سبيل المثال ، يمكن للولايات المتحدة والهند “الركوب المجاني” في الحد من ثاني أكسيد الكربون مع الاستمرار في الانبعاث.

ثلاثة رجال يرتدون بدلات وامرأة في السترة الزرقاء يرفعون أيديهم منتصرة.
يحتفل قادة العالم بتبني ميثاق الاحتباس الحراري التاريخي في مؤتمر الأمم المتحدة COP21 لتغير المناخ في عام 2015.
فرانسوا جيلو / وكالة الصحافة الفرنسية عبر Getty Images

التحدي العالمي

وبالمثل ، فإن مشكلة الراكب الحر تؤسس الحجج لتنظيم تطوير الذكاء الاصطناعي. في الواقع ، يعد تغير المناخ موازيًا وثيقًا بشكل خاص ، حيث لا تقتصر المخاطر التي يشكلها الذكاء الاصطناعي ولا انبعاثات غازات الاحتباس الحراري على بلد منشأ البرنامج.

علاوة على ذلك ، فإن السباق لتطوير ذكاء اصطناعي أكثر تقدمًا هو سباق دولي. حتى لو أدخلت الولايات المتحدة لائحة اتحادية لبحوث الذكاء الاصطناعي وتطويره ، يمكن للصين واليابان الاستفادة مجانًا ومواصلة برامج الذكاء الاصطناعي المحلية الخاصة بهما.

يتطلب التنظيم والتطبيق الفعال للذكاء الاصطناعي العمل الجماعي والتعاون العالمي ، تمامًا كما هو الحال مع تغير المناخ. في الولايات المتحدة ، سيتطلب التطبيق الصارم إشرافًا فيدراليًا على الأبحاث والقدرة على فرض غرامات باهظة أو إيقاف تجارب الذكاء الاصطناعي غير المتوافقة لضمان التطوير المسؤول – سواء كان ذلك من خلال مجالس الرقابة التنظيمية أو حماية المبلغين عن المخالفات أو ، في الحالات القصوى ، إغلاق المختبرات أو الأبحاث. والتهم الجنائية.

ومع ذلك ، بدون فرض تطبيق ، سيكون هناك متسابقون مجانيون – ويعني الدراجون المجانيون أن تهديد الذكاء الاصطناعي لن ينحسر في أي وقت قريبًا.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى