ما هي محاذاة الذكاء الاصطناعي؟ الطريقة المفضلة في وادي السيليكون للتفكير في أمان الذكاء الاصطناعي تغفل المشكلات الحقيقية

مجلة المذنب نت متابعات عالمية:
نظرًا لانتشار أنظمة الذكاء الاصطناعي (AI) ذات القدرات المتزايدة على نطاق واسع ، فإن مسألة المخاطر التي قد تشكلها قد اكتسبت إلحاحًا جديدًا. سلطت الحكومات والباحثون والمطورون الضوء على سلامة الذكاء الاصطناعي.
يتحرك الاتحاد الأوروبي بشأن تنظيم الذكاء الاصطناعي ، وتعقد المملكة المتحدة قمة أمان الذكاء الاصطناعي ، وتسعى أستراليا للحصول على مدخلات بشأن دعم الذكاء الاصطناعي الآمن والمسؤول.
تمثل الموجة الحالية من الاهتمام فرصة لمعالجة قضايا السلامة الملموسة للذكاء الاصطناعي مثل التحيز وسوء الاستخدام واستغلال العمالة. لكن الكثيرين في وادي السيليكون ينظرون إلى السلامة من خلال العدسة التخمينية لـ “محاذاة الذكاء الاصطناعي” ، والتي تغفل عن الأضرار الحقيقية التي يمكن أن تلحقها أنظمة الذكاء الاصطناعي الحالية بالمجتمع – والطرق العملية التي يمكننا معالجتها.
ما هي محاذاة الذكاء الاصطناعي؟
تتعلق “محاذاة الذكاء الاصطناعي” بمحاولة التأكد من تطابق سلوك أنظمة الذكاء الاصطناعي مع ما نحن عليه يريد وماذا نحن يتوقع. تميل أبحاث المحاذاة إلى التركيز على أنظمة الذكاء الاصطناعي الافتراضية المستقبلية ، وهي أكثر تقدمًا من تكنولوجيا اليوم.
إنها مشكلة صعبة لأنه من الصعب التنبؤ بكيفية تطور التكنولوجيا ، وأيضًا لأن البشر ليسوا جيدين جدًا في معرفة ما نريد – أو الاتفاق عليه.
ومع ذلك ، لا يوجد نقص في أبحاث المواءمة. هناك مجموعة من المقترحات الفنية والفلسفية بأسماء مقصورة على فئة معينة مثل “التعلم التعزيزي التعاوني التعاوني” و “التضخيم المتكرر”.
هناك نوعان من المدارس الفكرية واسعة النطاق. في المحاذاة “من أعلى إلى أسفل” ، يحدد المصممون صراحة القيم والمبادئ الأخلاقية التي يجب أن يتبعها الذكاء الاصطناعي (فكر في قوانين الروبوتات الثلاثة لأسيموف) ، بينما تحاول جهود “من أسفل إلى أعلى” إعادة هندسة القيم البشرية من البيانات ، ثم بناء أنظمة ذكاء اصطناعي تتماشى مع تلك القيم. هناك بالطبع صعوبات في تحديد “القيم الإنسانية” ، وتحديد من يختار القيم المهمة ، وتحديد ما يحدث عندما يختلف البشر.
أوبن إيه آي ، الشركة التي تقف وراء روبوت الدردشة ChatGPT ومنشئ الصور DALL-E من بين منتجات أخرى ، حددت مؤخرًا خططها لـ “المحاذاة الفائقة”. تهدف هذه الخطة إلى تجنب الأسئلة الصعبة ومواءمة الذكاء الاصطناعي الخارق في المستقبل من خلال بناء ذكاء اصطناعي على مستوى الإنسان فقط للمساعدة في أبحاث المواءمة.
ولكن للقيام بذلك ، يجب عليهم أولاً محاذاة البحث عن محاذاة الذكاء الاصطناعي …
لماذا من المفترض أن تكون المحاذاة مهمة جدًا؟
يقول المدافعون عن نهج المحاذاة لسلامة الذكاء الاصطناعي إن الفشل في “حل” محاذاة الذكاء الاصطناعي يمكن أن يؤدي إلى مخاطر هائلة ، تصل إلى وتشمل انقراض البشرية.
ينبع الاعتقاد بهذه المخاطر إلى حد كبير من فكرة أن “الذكاء الاصطناعي العام” (AGI) – بالمعنى التقريبي ، نظام ذكاء اصطناعي يمكنه فعل أي شيء يمكن للإنسان – يمكن تطويره في المستقبل القريب ، ويمكن بعد ذلك الاستمرار في تحسين نفسه دون تدخل بشري . في هذه الرواية ، قد يقضي الذكاء الاصطناعي الخارق على الجنس البشري ، إما عن قصد أو كأثر جانبي لمشروع آخر.
اقرأ المزيد: لا ، ربما لن يقتلنا الذكاء الاصطناعي جميعًا – وهناك المزيد لحملة الخوف هذه أكثر مما تراه العين
بنفس الطريقة إلى حد كبير ، كان مجرد احتمال وجود الجنة والجحيم كافياً لإقناع الفيلسوف بليز باسكال بالإيمان بالله ، فإن إمكانية الذكاء الاصطناعي العام الفائق في المستقبل كافية لإقناع بعض المجموعات بضرورة تكريس كل جهودنا “لحل” محاذاة الذكاء الاصطناعي .
هناك العديد من المزالق الفلسفية في هذا النوع من التفكير. كما أنه من الصعب جدًا عمل تنبؤات حول التكنولوجيا.
حتى لو تركنا هذه المخاوف جانباً ، فإن المحاذاة (ناهيك عن “المحاذاة الفائقة”) هي طريقة محدودة وغير كافية للتفكير في أنظمة السلامة والذكاء الاصطناعي.
ثلاث مشاكل في محاذاة الذكاء الاصطناعي
أولاً، لم يتم تعريف مفهوم “المحاذاة” بشكل جيد. تهدف أبحاث المحاذاة عادةً إلى أهداف غامضة مثل بناء أنظمة “مفيدة بشكل مثبت” ، أو “منع الانقراض البشري”.
لكن هذه الأهداف ضيقة للغاية. يمكن للذكاء الاصطناعي الفائق الذكاء أن يلبيهم ولا يزال يتسبب في أضرار جسيمة.
أكثر أهمية، تتعلق سلامة الذكاء الاصطناعي بما هو أكثر من مجرد آلات وبرامج. مثل كل التقنيات ، يعتبر الذكاء الاصطناعي تقنيًا واجتماعيًا.
سيتضمن جعل الذكاء الاصطناعي آمنًا معالجة مجموعة كاملة من القضايا بما في ذلك الاقتصاد السياسي لتطوير الذكاء الاصطناعي ، وممارسات العمل الاستغلالية ، ومشاكل البيانات المختلسة ، والتأثيرات البيئية. نحتاج أيضًا إلى أن نكون صادقين بشأن الاستخدامات المحتملة للذكاء الاصطناعي المتقدم (مثل المراقبة الاستبدادية المنتشرة والتلاعب الاجتماعي) ومن الذي سيستفيد على طول الطريق (شركات التكنولوجيا الراسخة).
أخيراً، التعامل مع محاذاة الذكاء الاصطناعي كمشكلة فنية يضع السلطة في المكان الخطأ. لا ينبغي أن يكون التقنيون هم من يقرر ما هي المخاطر والقيم المهمة.
يجب تحديد القواعد التي تحكم أنظمة الذكاء الاصطناعي من خلال النقاش العام والمؤسسات الديمقراطية.
تبذل OpenAI بعض الجهود في هذا الصدد ، مثل التشاور مع المستخدمين في مجالات العمل المختلفة أثناء تصميم ChatGPT. ومع ذلك ، يجب أن نكون حذرين من الجهود المبذولة “لحل” أمان الذكاء الاصطناعي من خلال مجرد جمع التعليقات من مجموعة أوسع من الأشخاص ، دون إتاحة مساحة لمعالجة الأسئلة الأكبر.
هناك مشكلة أخرى تتمثل في الافتقار إلى التنوع – الأيديولوجي والديموغرافي – بين الباحثين عن التوافق. لدى العديد منهم روابط بمجموعات وادي السيليكون مثل المؤثرين الفعالين والعقلانيين ، وهناك نقص في التمثيل من النساء وغيرهم من الفئات المهمشة التي كانت تاريخياً المحرك للتقدم في فهم الضرر الذي يمكن أن تحدثه التكنولوجيا.
إذا لم يكن هناك محاذاة ، فماذا بعد؟
لا يمكن معالجة تأثيرات التكنولوجيا على المجتمع باستخدام التكنولوجيا وحدها.
تضع فكرة “محاذاة الذكاء الاصطناعي” شركات الذكاء الاصطناعي كأوصياء يحمون المستخدمين من الذكاء الاصطناعي المارق ، بدلاً من مطوري أنظمة الذكاء الاصطناعي التي قد تتسبب في أضرار. في حين أن الذكاء الاصطناعي الآمن هو بالتأكيد هدف جيد ، فإن الاقتراب من هذا من خلال التركيز الضيق على “المحاذاة” يتجاهل الكثير من الأضرار الملحة والمحتملة.
اقرأ المزيد: الدعوات لتنظيم الذكاء الاصطناعي تتزايد. ولكن كيف تنظم بالضبط تقنية مثل هذه؟
إذن ما هي أفضل طريقة للتفكير في أمان الذكاء الاصطناعي؟ كمشكلة اجتماعية وتقنية يجب معالجتها أولاً وقبل كل شيء من خلال الاعتراف بالأضرار القائمة ومعالجتها.
هذا لا يعني أن بحث المحاذاة لن يكون مفيدًا ، لكن التأطير ليس مفيدًا. وتبلغ المخططات المبتذلة مثل “المحاذاة الفائقة” لـ OpenAI ركل العلبة الأخلاقية الفوقية على الطريق ، ونأمل ألا نتعثر عليها لاحقًا.
نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة