مقالات عامة

دعونا نبني مناقشات الذكاء الاصطناعي على الواقع ، وليس المخاوف الشديدة بشأن المستقبل

مجلة المذنب نت متابعات عالمية:

تلقى خطاب مفتوح حديثًا من علماء الكمبيوتر وقادة صناعة التكنولوجيا يدعو إلى حظر لمدة ستة أشهر على تطوير الذكاء الاصطناعي اهتمامًا واسع النطاق عبر الإنترنت. حتى وزير الابتكار الكندي فرانسوا فيليب شامبين رد على الرسالة على تويتر.

طلبت الرسالة ، التي نشرها معهد Future of Life غير الربحي ، من جميع مختبرات الذكاء الاصطناعي التوقف عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4 ، النموذج وراء ChatGPT. تجادل الرسالة بأن الذكاء الاصطناعي كان “محبوسًا في سباق خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأي شخص – ولا حتى منشئوها – فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق.”

تفترض الرسالة أن الذكاء الاصطناعي أصبح ، أو يمكن أن يصبح ، “عقولًا رقمية قوية” – تفسير طويل الأمد لتطور الذكاء الاصطناعي يتجاهل المناقشات المهمة حول الذكاء الاصطناعي اليوم بدلاً من المخاوف المستقبلية.

المداومة على المدى الطويل والذكاء الاصطناعي

المدى البعيد هو الاعتقاد بأن الذكاء الاصطناعي يشكل مخاطر طويلة الأمد أو وجودية على مستقبل البشرية من خلال أن يصبح ذكاءً خارقًا خارج نطاق السيطرة.

عادة ما تكون المخاوف بشأن الذكاء الاصطناعي الفائق من مواد الخيال العلمي. تخيلات الذكاء الاصطناعي هي واحدة من العديد من المخاوف في وادي السيليكون والتي يمكن أن تؤدي إلى نبوءات مظلمة. ولكن مثل Torment Nexus meme ، تُترجم هذه المخاوف إلى استثمارات كبيرة وليس حذرًا. قامت معظم شركات التكنولوجيا الكبرى بقطع فرق الذكاء الاصطناعي المسؤولة.

من الواضح أن ChatGPT ليس طريقًا إلى الذكاء الخارق. يرى الخطاب المفتوح أن تقنية لغة الذكاء الاصطناعي مثل ChatGPT بمثابة اختراق معرفي – وهو الشيء الذي يسمح للذكاء الاصطناعي بالتنافس مع البشر في المهام العامة. لكن هذا رأي واحد فقط.



اقرأ المزيد: هل تجاوز GPT-4 حقًا العتبة المذهلة للذكاء الاصطناعي على مستوى الإنسان؟ حسنًا ، هذا يعتمد


هناك العديد من الأشخاص الآخرين الذين يرون أن ChatGPT ونموذج GPT-4 الخاص به ونماذج تعلم اللغة الأخرى على أنها “ببغاوات عشوائية” تكرر فقط ما تعلموه عبر الإنترنت حتى يتمكنوا من يظهر ذكي للبشر.

النقاط العمياء للذكاء الخارق

للمدى الطويل تداعيات سياسية مباشرة تعطي الأولوية للذكاء الخارق على الأمور الأكثر إلحاحًا مثل اختلال توازن القوى في الذكاء الاصطناعي. حتى أن بعض مؤيدي مبدأ المدى الطويل يعتبرون أن التنظيم لوقف الذكاء الخارق أكثر إلحاحًا من معالجة حالة الطوارئ المناخية.

الآثار المترتبة على سياسة الذكاء الاصطناعي هي أمور فورية وليست بعيدة. نظرًا لأن GPT-4 يتم تدريبه على الإنترنت بالكامل وله أهداف تجارية صريحة ، فإنه يثير أسئلة حول التعامل العادل والاستخدام العادل.

ما زلنا لا نعرف ما إذا كانت النصوص والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي محمية بحقوق الطبع والنشر في المقام الأول ، لأن الآلات والحيوانات لا يمكنها الاحتفاظ بحقوق الطبع والنشر.

يرى الخطاب المفتوح أن تقنية لغة الذكاء الاصطناعي مثل ChatGPT بمثابة اختراق معرفي – وهو الشيء الذي يسمح للذكاء الاصطناعي بالتنافس مع البشر في المهام العامة.
(صورة من أسوشيتد برس / مايكل دواير)

وعندما يتعلق الأمر بمسائل الخصوصية ، يصعب تمييز نهج ChatGPT عن تطبيق AI آخر ، وهو Clearview AI. تم تدريب كلا نموذجي الذكاء الاصطناعي باستخدام كميات هائلة من المعلومات الشخصية التي تم جمعها على الإنترنت المفتوح. حظرت هيئة حماية البيانات الإيطالية مؤخرًا ChatGPT بسبب مخاوف تتعلق بالخصوصية.

لم يتم ذكر هذه المخاطر المباشرة في الرسالة المفتوحة ، والتي تتأرجح بين الفلسفة الجامحة والحلول التقنية ، متجاهلة القضايا التي أمامنا مباشرة.

إغراق البراغماتية

تتبع الرسالة ديناميكية قديمة حددتها أنا ومؤلفي المشارك في فصل قادم يخضع لمراجعة الأقران حول حوكمة الذكاء الاصطناعي. هناك ميل للنظر إلى الذكاء الاصطناعي على أنه إما خطر وجودي أو شيء عادي وتقني.

يظهر التوتر بين هذين الطرفين في الرسالة المفتوحة. تبدأ الرسالة بالادعاء بأن “الذكاء الاصطناعي المتقدم يمكن أن يمثل تغييرًا عميقًا في تاريخ الحياة على الأرض” قبل الدعوة إلى “تمويل عام قوي لبحوث السلامة التقنية للذكاء الاصطناعي”. يشير هذا الأخير إلى أن الأضرار الاجتماعية للذكاء الاصطناعي هي مجرد مشاريع تقنية يتعين حلها.

يؤدي التركيز على هذين النقيضين إلى استبعاد الأصوات المهمة التي تحاول مناقشة المخاطر المباشرة للذكاء الاصطناعي المذكورة أعلاه بشكل عملي ، بالإضافة إلى قضايا العمل وغير ذلك.

يُعد الاهتمام بالرسالة المفتوحة مشكلة خاصة في كندا لأن رسالتين أخريين كتبها الفنانين ومنظمات الحريات المدنية ، لم تحظ بنفس القدر من الاهتمام. تدعو هذه الرسائل إلى إصلاحات واتباع نهج أكثر قوة في إدارة الذكاء الاصطناعي لحماية المتضررين منه.

إلهاء غير ضروري تجاه تشريعات الذكاء الاصطناعي

أكدت ردود الحكومة على الرسالة المفتوحة أن كندا لديها تشريعات – قانون الذكاء الاصطناعي والبيانات (AIDA). يتم استخدام المخاطر طويلة المدى للذكاء الاصطناعي لتسريع التشريعات الآن مثل AIDA.

تعد AIDA خطوة مهمة نحو نظام حوكمة مناسب للذكاء الاصطناعي ، لكنها تحتاج إلى التشاور بشكل أفضل مع المتأثرين بالذكاء الاصطناعي قبل تنفيذها. لا يمكن التسرع في الاستجابة للمخاوف المتصورة على المدى الطويل.

قد تؤدي الدعوات الواردة في الرسالة إلى تسريع تشريعات الذكاء الاصطناعي في نهاية المطاف إلى إفادة نفس الشركات القليلة التي تقود أبحاث الذكاء الاصطناعي اليوم. بدون وقت للتشاور ، وتعزيز محو الأمية العامة والاستماع إلى أولئك الذين يتأثرون بالذكاء الاصطناعي ، تخاطر AIDA بتمرير مساءلة الذكاء الاصطناعي ومراجعته إلى المؤسسات التي تتمتع بوضع جيد بالفعل للاستفادة من التكنولوجيا ، مما يخلق سوقًا لصناعة تدقيق الذكاء الاصطناعي الجديدة.

قد لا يكون مصير البشرية على المحك ، لكن الحوكمة الرشيدة للذكاء الاصطناعي هي بالتأكيد.




نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى