مقالات عامة

إذا أردنا تصنيف الذكاء الاصطناعي على أنه “خطر الانقراض” ، فنحن بحاجة إلى توضيح كيفية حدوثه

مجلة المذنب نت متابعات عالمية:

وقع هذا الأسبوع مجموعة من باحثي الذكاء الاصطناعي المعروفين وذوي السمعة الطيبة بيانًا يتكون من 22 كلمة:

يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية.

بصفتي أستاذًا للذكاء الاصطناعي ، فأنا أيضًا أؤيد الحد من أي مخاطر ، ومستعد للعمل عليها شخصيًا. لكن أي بيان يتم صياغته بهذه الطريقة من شأنه أن يثير القلق ، لذلك ربما يجب أن يكون مؤلفوه أكثر تحديدًا وأن يوضحوا مخاوفهم.

كما حددته موسوعة بريتانيكا ، فإن الانقراض هو “موت أو إبادة الأنواع”. لقد التقيت بالعديد من الموقعين على البيان ، وهم من بين أكثر العلماء شهرة وثباتًا في هذا المجال – وهم بالتأكيد يقصدون حسنًا. ومع ذلك ، لم يقدموا لنا أي سيناريو ملموس لكيفية حدوث مثل هذا الحدث المتطرف.

ليست هذه هي المرة الأولى التي نشغل فيها هذا المنصب. في 22 مارس من هذا العام ، طلبت عريضة موقعة من مجموعة مختلفة من رواد الأعمال والباحثين وقفة في نشر الذكاء الاصطناعي لمدة ستة أشهر. لقد وضعوا منطقهم: “المخاطر العميقة على المجتمع والإنسانية ، كما يتضح من الأبحاث المكثفة ومعترف بها من قبل أفضل مختبرات الذكاء الاصطناعي” – ورافقوا طلبهم بقائمة من الأسئلة البلاغية:

هل يجب أن ندع الآلات تغمر قنواتنا الإعلامية بالدعاية والكذب؟ هل يجب أن نخرج جميع الوظائف آليًا ، بما في ذلك الوظائف التي تفي بالغرض؟ هل يجب أن نطور عقولًا غير بشرية قد تفوق في النهاية عددًا وتتفوق على الذكاء وتتقادم وتستبدلنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟

شعور عام بالإنذار

من المؤكد أن هذه التكنولوجيا ، إلى جانب العديد من الفوائد ، تأتي مع مخاطر علينا التعامل معها بجدية. لكن لا يبدو أن أيًا من السيناريوهات المذكورة أعلاه يحدد مسارًا محددًا للانقراض. هذا يعني أننا تركنا إحساسًا عامًا بالإنذار ، دون أي إجراءات محتملة يمكننا اتخاذها.

يوضح موقع الويب الخاص بمركز أمان الذكاء الاصطناعي ، حيث ظهر البيان الأخير والالتماس السابق ، في قسم منفصل ثماني فئات مخاطر واسعة. وتشمل هذه “تسليح” الذكاء الاصطناعي ، واستخدامه للتلاعب بالنظام الإخباري ، وإمكانية أن يصبح البشر في نهاية المطاف غير قادرين على الحكم الذاتي ، وتسهيل الأنظمة القمعية ، وما إلى ذلك.

أدلى سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، بشهادته أمام الكونجرس الأمريكي في 16 مايو 2023.
جيم لو سكالزو / وكالة حماية البيئة-إفي

باستثناء التسليح ، من غير الواضح كيف يمكن أن تؤدي المخاطر الأخرى – التي لا تزال فظيعة – إلى انقراض جنسنا البشري ، ويقع عبء توضيح ذلك على عاتق أولئك الذين يدعون ذلك.

التسلح هو مصدر قلق حقيقي ، بالطبع ، ولكن يجب توضيح المقصود من هذا أيضًا. يبدو أن مصدر القلق الرئيسي لمركز أمان الذكاء الاصطناعي على موقعه الإلكتروني هو استخدام أنظمة الذكاء الاصطناعي لتصميم أسلحة كيميائية. يجب منع هذا بأي ثمن – لكن الأسلحة الكيميائية محظورة بالفعل. الانقراض هو حدث محدد للغاية يتطلب تفسيرات محددة للغاية.

في 16 مايو ، في جلسة الاستماع في مجلس الشيوخ الأمريكي ، طُلب من سام التمان ، الرئيس التنفيذي لشركة OpenAI – التي طورت روبوت الدردشة ChatGPT AI – مرتين توضيح السيناريو الأسوأ. فأجاب أخيرا:

أسوأ مخاوفي أننا – المجال ، التكنولوجيا ، الصناعة – نتسبب في ضرر كبير للعالم … لهذا السبب بدأنا الشركة [to avert that future] … أعتقد أنه إذا حدث خطأ في هذه التكنولوجيا ، فقد تسوء تمامًا.

لكن بينما أؤيد بشدة توخي الحذر قدر الإمكان ، وكنت أقول ذلك علنًا على مدار السنوات العشر الماضية ، من المهم الحفاظ على الإحساس بالتناسب – خاصة عند مناقشة انقراض نوع من ثمانية مليارات. فرادى.

يمكن للذكاء الاصطناعي أن يخلق مشاكل اجتماعية يجب تجنبها حقًا. كعلماء ، علينا واجب فهمها ثم بذل قصارى جهدنا لحلها. لكن الخطوة الأولى هي تسميتها ووصفها – وأن تكون محددًا.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى