يُعد الذكاء الاصطناعي تهديدًا وجوديًا – ليس بالطريقة التي تفكر بها

مجلة المذنب نت متابعات عالمية:
ترافق ظهور ChatGPT وأنظمة الذكاء الاصطناعي المماثلة مع زيادة حادة في القلق بشأن الذكاء الاصطناعي. خلال الأشهر القليلة الماضية ، قدم المسؤولون التنفيذيون والباحثون في مجال السلامة في الذكاء الاصطناعي تنبؤات أطلق عليها اسم “P (الموت)” حول احتمالية أن يتسبب الذكاء الاصطناعي في كارثة واسعة النطاق.
بلغ القلق ذروته في مايو 2023 عندما أصدرت منظمة الأبحاث والدعوة غير الربحية مركز أمان الذكاء الاصطناعي بيانًا من جملة واحدة: “يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى ، مثل الأوبئة والحرب النووية. ” تم التوقيع على البيان من قبل العديد من اللاعبين الرئيسيين في هذا المجال ، بما في ذلك قادة OpenAI و Google و Anthropic ، بالإضافة إلى اثنين ممن يطلق عليهم “عرابون” الذكاء الاصطناعي: جيفري هينتون ويوشوا بنجيو.
قد تسأل كيف من المفترض أن تنتهي هذه المخاوف الوجودية. أحد السيناريوهات الشهيرة هو تجربة فكرية “معزز مشبك الورق” التي صاغها فيلسوف أكسفورد نيك بوستروم. الفكرة هي أن نظام الذكاء الاصطناعي المكلف بإنتاج أكبر عدد ممكن من المشابك الورقية قد يذهب إلى أطوال غير عادية للعثور على المواد الخام ، مثل تدمير المصانع والتسبب في حوادث السيارات.
هناك نوع أقل كثافة في استخدام الموارد له ذكاء اصطناعي مكلف بالحجز في مطعم شهير يقوم بإغلاق الشبكات الخلوية وإشارات المرور من أجل منع المستفيدين الآخرين من الحصول على طاولة.
اللوازم المكتبية أو العشاء ، الفكرة الأساسية هي نفسها: الذكاء الاصطناعي يتحول بسرعة إلى ذكاء فضائي ، جيد في تحقيق الأهداف ولكنه خطير لأنه لن يتماشى بالضرورة مع القيم الأخلاقية لمبدعيه. وفي أكثر صورها تطرفاً ، تتحول هذه الحجة إلى مخاوف واضحة بشأن استعباد الذكاء الاصطناعي أو تدميره للجنس البشري.
https://www.youtube.com/watch؟v=eQ6Q6HINX7I
ضرر فعلي
في السنوات القليلة الماضية ، كنت أنا وزملائي في مركز الأخلاقيات التطبيقية بجامعة UMass Boston ندرس تأثير المشاركة مع الذكاء الاصطناعي على فهم الناس لأنفسهم ، وأعتقد أن هذه المخاوف الكارثية مبالغ فيها ومضللة.
نعم ، إن قدرة الذكاء الاصطناعي على إنشاء مقاطع فيديو وصوت مزيفة بشكل مقنع مخيفة ، ويمكن إساءة استخدامها من قبل الأشخاص ذوي النوايا السيئة. في الواقع ، هذا ما يحدث بالفعل: من المحتمل أن العملاء الروس حاولوا إحراج ناقد الكرملين بيل براودر من خلال إيقاظه في محادثة مع صورة رمزية للرئيس الأوكراني السابق بيترو بوروشينكو. يستخدم مجرمو الإنترنت استنساخ الصوت بالذكاء الاصطناعي لمجموعة متنوعة من الجرائم – من سرقة التكنولوجيا الفائقة إلى عمليات الاحتيال العادية.
تحمل أنظمة اتخاذ القرار بالذكاء الاصطناعي التي تقدم الموافقة على القروض وتوصيات التوظيف مخاطر التحيز الخوارزمي ، لأن بيانات التدريب ونماذج القرار التي تعمل على أساسها تعكس تحيزات اجتماعية طويلة الأمد.
هذه مشاكل كبيرة وتتطلب اهتمام صانعي السياسة. لكنها كانت موجودة منذ فترة ، ولم تكن كارثية.
ليس في نفس الدوري
جمع البيان الصادر عن مركز أمان الذكاء الاصطناعي الذكاء الاصطناعي في الأوبئة والأسلحة النووية باعتباره خطرًا كبيرًا على الحضارة. هناك مشاكل في تلك المقارنة. نتج عن COVID-19 ما يقرب من 7 ملايين حالة وفاة في جميع أنحاء العالم ، وتسبب في أزمة كبيرة ومستمرة في الصحة العقلية وخلق تحديات اقتصادية ، بما في ذلك النقص المزمن في سلسلة التوريد والتضخم الجامح.
ربما قتلت الأسلحة النووية أكثر من 200000 شخص في هيروشيما وناغازاكي في عام 1945 ، أودت بحياة العديد من السرطان في السنوات التي تلت ذلك ، وولدت عقودًا من القلق العميق خلال الحرب الباردة ودفعت العالم إلى حافة الفناء خلال أزمة الصواريخ الكوبية. في عام 1962. قاموا أيضًا بتغيير حسابات القادة الوطنيين حول كيفية الرد على العدوان الدولي ، كما يحدث حاليًا مع الغزو الروسي لأوكرانيا.
الذكاء الاصطناعي ببساطة ليس قريبًا من اكتساب القدرة على إحداث هذا النوع من الضرر. سيناريو مشبك الورق وما شابه هو خيال علمي. تقوم تطبيقات الذكاء الاصطناعي الحالية بتنفيذ مهام محددة بدلاً من إصدار أحكام عامة. التكنولوجيا بعيدة كل البعد عن أن تكون قادرة على اتخاذ القرار ثم التخطيط للأهداف والأهداف الثانوية اللازمة لإغلاق حركة المرور من أجل الحصول على مقعد في مطعم ، أو تفجير مصنع للسيارات من أجل إرضاء حكة مقاطع الورق. .
لا تفتقر التكنولوجيا إلى القدرة المعقدة للحكم متعدد الطبقات المتضمن في هذه السيناريوهات فحسب ، بل لا تتمتع أيضًا بوصول مستقل إلى أجزاء كافية من بنيتنا التحتية الحيوية لبدء التسبب في هذا النوع من الضرر.
ماذا يعني أن تكون إنسانًا
في الواقع ، هناك خطر وجودي متأصل في استخدام الذكاء الاصطناعي ، لكن هذا الخطر وجودي بالمعنى الفلسفي أكثر من المعنى المروع. يمكن للذكاء الاصطناعي في شكله الحالي تغيير الطريقة التي ينظر بها الناس إلى أنفسهم. يمكن أن تحط من القدرات والخبرات التي يعتبرها الناس ضرورية لكونهم إنسانًا.
AndreyPopov / iStock عبر Getty Images
على سبيل المثال ، البشر مخلوقات تصنع الأحكام. يزن الناس التفاصيل بعقلانية ويصدرون مكالمات يومية في العمل وأثناء أوقات الفراغ حول من يجب تعيينه ، ومن يجب أن يحصل على قرض ، وما الذي يجب مشاهدته وما إلى ذلك. ولكن يتم أتمتة المزيد والمزيد من هذه الأحكام وتحويلها إلى خوارزميات. عندما يحدث ذلك ، لن ينتهي العالم. لكن الناس سيفقدون تدريجياً القدرة على إصدار هذه الأحكام بأنفسهم. كلما قل عدد الأشخاص الذين يصنعهم الناس ، زاد احتمال أن يصبحوا أسوأ في صنعهم.
أو فكر في دور الصدفة في حياة الناس. يقدر البشر المواجهات المصادفة: القدوم إلى مكان أو شخص أو نشاط عن طريق الصدفة ، والانجذاب إليه والتقدير بأثر رجعي للدور الذي لعبته الصدفة في هذه الاكتشافات ذات المغزى. لكن دور محركات التوصية الخوارزمية هو تقليل هذا النوع من الصدفة واستبدالها بالتخطيط والتنبؤ.
أخيرًا ، ضع في اعتبارك إمكانات الكتابة في ChatGPT. التكنولوجيا في طور القضاء على دور الواجبات الكتابية في التعليم العالي. إذا حدث ذلك ، سيفقد المعلمون أداة رئيسية لتعليم الطلاب كيفية التفكير النقدي.
ليس ميتا لكنه يتضاءل
لذا ، لا ، الذكاء الاصطناعي لن يفجر العالم. لكن تبنيها غير النقدي بشكل متزايد ، في مجموعة متنوعة من السياقات الضيقة ، يعني التآكل التدريجي لبعض أهم مهارات البشر. تعمل الخوارزميات بالفعل على تقويض قدرة الناس على إصدار الأحكام ، والاستمتاع بالمصادفة ، وصقل التفكير النقدي.
سوف ينجو الجنس البشري من مثل هذه الخسائر. لكن طريقتنا في الوجود ستصبح فقيرة في هذه العملية. إن المخاوف الرائعة حول كارثة الذكاء الاصطناعي القادمة ، أو التفرد ، أو Skynet ، أو كيفما تفكر في الأمر ، تحجب هذه التكاليف الأكثر دقة. تذكر الأسطر الختامية الشهيرة لـ TS Eliot لـ “The Hollow Men”: “هذه هي الطريقة التي ينتهي بها العالم” ، كما كتب ، “ليس مع ضجة كبيرة ولكن بنشيج.”
نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة