مقالات عامة

3 خبراء يشرحون لماذا من الصعب القيام به ومن المهم القيام به بشكل صحيح

مجلة المذنب نت متابعات عالمية:

من الصور المزيفة لدونالد ترامب الذي تم القبض عليه من قبل ضباط شرطة مدينة نيويورك إلى روبوت الدردشة الذي يصف عالم كمبيوتر حيًا جدًا بأنه مات بشكل مأساوي ، قدرة الجيل الجديد من أنظمة الذكاء الاصطناعي التوليدية على إنشاء نصوص وصور مقنعة ولكن خيالية تنطلق إنذارات حول الاحتيال والمعلومات الخاطئة عن المنشطات. في الواقع ، حثت مجموعة من الباحثين في مجال الذكاء الاصطناعي وشخصيات الصناعة الصناعة في 29 مارس 2023 ، على إيقاف التدريب الإضافي لأحدث تقنيات الذكاء الاصطناعي مؤقتًا أو ، باستثناء ذلك ، على الحكومات “فرض حظر”.

هذه التقنيات – مولدات الصور مثل DALL-E و Midjourney و Stable Diffusion ، ومولدات النصوص مثل Bard و ChatGPT و Chinchilla و LLaMA – متاحة الآن لملايين الأشخاص ولا تتطلب معرفة تقنية لاستخدامها.

نظرًا لاحتمال حدوث ضرر واسع النطاق عندما تطرح شركات التكنولوجيا أنظمة الذكاء الاصطناعي هذه وتختبرها على الجمهور ، فإن صانعي السياسات يواجهون مهمة تحديد ما إذا كان ينبغي تنظيم التكنولوجيا الناشئة وكيفية تنظيمها. طلبت المحادثة من ثلاثة خبراء في سياسة التكنولوجيا شرح سبب كون تنظيم الذكاء الاصطناعي يمثل تحديًا كبيرًا – ولماذا من المهم جدًا القيام بذلك بشكل صحيح.

للانتقال سريعًا إلى كل إجابة ، إليك قائمة بكل منها:


نواقص بشرية وهدف متحرك
الجمع بين النهج “الناعمة” و “الصعبة”
أربعة أسئلة رئيسية لطرحها


نواقص بشرية وهدف متحرك

S. Shyam Sundar ، أستاذ تأثيرات الوسائط ومدير مركز الذكاء الاصطناعي المسؤول اجتماعيًا ، ولاية بنسلفانيا

السبب في تنظيم الذكاء الاصطناعي ليس لأن التكنولوجيا خارجة عن السيطرة ، ولكن لأن الخيال البشري غير متناسب. غذت التغطية الإعلامية المتدفقة المعتقدات غير المنطقية حول قدرات الذكاء الاصطناعي ووعيه. هذه المعتقدات مبنية على “انحياز الأتمتة” أو الميل إلى أخذ الحيطة والحذر عند قيام الآلات بمهمة ما. ومن الأمثلة على ذلك قلة اليقظة بين الطيارين عندما تطير طائرتهم بالطيار الآلي.

أظهرت العديد من الدراسات في مختبري أنه عندما يتم تحديد الجهاز ، وليس الإنسان ، كمصدر للتفاعل ، فإنه يطلق اختصارًا ذهنيًا في أذهان المستخدمين نسميه “الكشف عن مجريات الآلة”. هذا الاختصار هو الاعتقاد بأن الآلات دقيقة وموضوعية وغير متحيزة ومعصومة من الخطأ وما إلى ذلك. إنه يغيب عن حكم المستخدم ويؤدي إلى ثقة المستخدم في الآلات بشكل مفرط. ومع ذلك ، فإن مجرد إبعاد الناس عن عصمة الذكاء الاصطناعي ليس كافياً ، لأنه من المعروف أن البشر يفترضون دون وعي الكفاءة حتى عندما لا تضمن التكنولوجيا ذلك.

أظهرت الأبحاث أيضًا أن الناس يتعاملون مع أجهزة الكمبيوتر ككائنات اجتماعية عندما تُظهر الآلات أدنى تلميح للإنسانية ، مثل استخدام لغة المحادثة. في هذه الحالات ، يطبق الناس القواعد الاجتماعية للتفاعل البشري ، مثل الأدب والمعاملة بالمثل. لذلك ، عندما تبدو أجهزة الكمبيوتر حساسة ، يميل الناس إلى الوثوق بها بشكل أعمى. هناك حاجة إلى التنظيم لضمان أن منتجات الذكاء الاصطناعي تستحق هذه الثقة ولا تستغلها.

يشكل الذكاء الاصطناعي تحديًا فريدًا لأنه ، على عكس الأنظمة الهندسية التقليدية ، لا يمكن للمصممين التأكد من كيفية تصرف أنظمة الذكاء الاصطناعي. عندما تم شحن سيارة تقليدية خارج المصنع ، عرف المهندسون بالضبط كيف ستعمل. ولكن مع السيارات ذاتية القيادة ، لا يمكن للمهندسين أن يتأكدوا أبدًا من كيفية أدائها في المواقف الجديدة.

في الآونة الأخيرة ، كان الآلاف من الناس حول العالم يتعجبون مما تنتجه نماذج الذكاء الاصطناعي الكبيرة مثل GPT-4 و DALL-E 2 استجابةً لمطالباتهم. لم يتمكن أي من المهندسين المشاركين في تطوير نماذج الذكاء الاصطناعي هذه من إخبارك بالضبط بما ستنتجه النماذج. لتعقيد الأمور ، تتغير هذه النماذج وتتطور مع المزيد والمزيد من التفاعل.

كل هذا يعني أن هناك احتمالية كبيرة للاختلالات. لذلك ، يعتمد الكثير على كيفية نشر أنظمة الذكاء الاصطناعي وما هي أحكام اللجوء المعمول بها عندما تتأذى حساسيات الإنسان أو رفاهه. الذكاء الاصطناعي هو أكثر من مجرد بنية تحتية ، مثل الطريق السريع. يمكنك تصميمها لتشكيل السلوكيات البشرية بشكل جماعي ، لكنك ستحتاج إلى آليات للتعامل مع الانتهاكات ، مثل السرعة ، والأحداث غير المتوقعة ، مثل الحوادث.

سيحتاج مطورو الذكاء الاصطناعي أيضًا إلى أن يكونوا مبدعين بشكل غير عادي في تصور الطرق التي قد يتصرف بها النظام ومحاولة توقع الانتهاكات المحتملة للمعايير والمسؤوليات الاجتماعية. هذا يعني أن هناك حاجة إلى أطر تنظيمية أو حوكمة تعتمد على عمليات تدقيق دورية ومراقبة نتائج ومنتجات الذكاء الاصطناعي ، على الرغم من أنني أعتقد أن هذه الأطر يجب أن تدرك أيضًا أن مصممي الأنظمة لا يمكن دائمًا أن يكونوا مسؤولين عن الحوادث المؤسفة.

https://www.youtube.com/watch؟v=qu4qP_4fZWw

تصف باحثة الذكاء الاصطناعي جوانا بريسون كيف يمكن للمنظمات المهنية أن تلعب دورًا في تنظيم الذكاء الاصطناعي.

الجمع بين النهج “الناعمة” و “الصعبة”

كاسون شميت ، أستاذ مساعد في الصحة العامة ، جامعة تكساس إيه آند إم

يعد تنظيم الذكاء الاصطناعي أمرًا صعبًا. لتنظيم الذكاء الاصطناعي جيدًا ، يجب عليك أولاً تحديد الذكاء الاصطناعي وفهم المخاطر والفوائد المتوقعة للذكاء الاصطناعي. يعد التعريف القانوني للذكاء الاصطناعي أمرًا مهمًا لتحديد ما يخضع للقانون. لكن تقنيات الذكاء الاصطناعي لا تزال تتطور ، لذلك من الصعب تحديد تعريف قانوني مستقر.

من المهم أيضًا فهم مخاطر وفوائد الذكاء الاصطناعي. يجب أن تزيد اللوائح الجيدة من المنافع العامة مع تقليل المخاطر إلى الحد الأدنى. ومع ذلك ، لا تزال تطبيقات الذكاء الاصطناعي في الظهور ، لذلك من الصعب معرفة المخاطر أو الفوائد المستقبلية أو التنبؤ بها. هذه الأنواع من المجهول تجعل من الصعب للغاية تنظيم التقنيات الناشئة مثل الذكاء الاصطناعي بالقوانين واللوائح التقليدية.

غالبًا ما يكون المشرعون بطيئين جدًا في التكيف مع البيئة التكنولوجية سريعة التغير. بعض القوانين الجديدة قد عفا عليها الزمن بحلول وقت سنها أو حتى إدخالها. بدون قوانين جديدة ، يتعين على المنظمين استخدام القوانين القديمة لمعالجة المشاكل الجديدة. يؤدي هذا في بعض الأحيان إلى حواجز قانونية للمزايا الاجتماعية أو ثغرات قانونية للسلوك الضار.

“القوانين غير الملزمة” هي البديل لمقاربات “القانون الصارم” التقليدية للتشريعات التي تهدف إلى منع انتهاكات محددة. في نهج القانون غير الملزم ، تضع منظمة خاصة قواعد أو معايير لأعضاء الصناعة. يمكن أن تتغير هذه بسرعة أكبر من القوانين التقليدية. هذا يجعل القوانين اللينة واعدة للتقنيات الناشئة لأنها يمكن أن تتكيف بسرعة مع التطبيقات والمخاطر الجديدة. ومع ذلك ، يمكن أن تعني القوانين غير المرنة إنفاذًا ناعمًا.

اقترحت أنا وميجان دوير وجنيفر واجنر طريقة ثالثة: ذكاء اصطناعي Copyleft مع إنفاذ موثوق (CAITE). يجمع هذا النهج بين مفهومين مختلفين تمامًا في الملكية الفكرية – ترخيص الحقوق المتروكة ومتصيدو براءات الاختراع.

يسمح ترخيص الحقوق المتروكة باستخدام المحتوى أو إعادة استخدامه أو تعديله بسهولة بموجب شروط الترخيص – على سبيل المثال ، البرامج مفتوحة المصدر. يستخدم نموذج CAITE تراخيص الحقوق المتروكة لمطالبة مستخدمي الذكاء الاصطناعي باتباع إرشادات أخلاقية محددة ، مثل التقييمات الشفافة لتأثير التحيز.

في نموذجنا ، تنقل هذه التراخيص أيضًا الحق القانوني لفرض انتهاكات الترخيص إلى جهة خارجية موثوق بها. يؤدي هذا إلى إنشاء كيان تنفيذي موجود فقط لفرض معايير أخلاقية للذكاء الاصطناعي ويمكن تمويله جزئيًا بغرامات من السلوك غير الأخلاقي. هذا الكيان يشبه المتصيد براءات الاختراع من حيث أنه خاص وليس حكومي ويدعم نفسه من خلال فرض حقوق الملكية الفكرية القانونية التي يجمعها من الآخرين. في هذه الحالة ، بدلاً من الإنفاذ من أجل الربح ، يفرض الكيان المبادئ التوجيهية الأخلاقية المحددة في التراخيص – “القزم من أجل الخير”.

هذا النموذج مرن وقابل للتكيف لتلبية احتياجات بيئة الذكاء الاصطناعي المتغيرة. كما أنه يتيح خيارات إنفاذ كبيرة مثل المنظم الحكومي التقليدي. وبهذه الطريقة ، فهو يجمع بين أفضل عناصر مقاربات القانون الصارم وغير الملزم لمواجهة التحديات الفريدة للذكاء الاصطناعي.

https://www.youtube.com/watch؟v=oKkzVII_wHQ

على الرغم من أن الذكاء الاصطناعي التوليدي قد احتل عناوين الأخبار مؤخرًا ، إلا أن أنواعًا أخرى من الذكاء الاصطناعي كانت تفرض تحديات على المنظمين لسنوات ، لا سيما في مجال خصوصية البيانات.

أربعة أسئلة رئيسية لطرحها

جون فيلاسينور ، أستاذ الهندسة الكهربائية والقانون والسياسة العامة والإدارة ، جامعة كاليفورنيا ، لوس أنجلوس

إن التطورات الحديثة غير العادية في الذكاء الاصطناعي التوليدي المستند إلى نموذج اللغة الكبيرة تحفز الدعوات لإنشاء تنظيم جديد خاص بالذكاء الاصطناعي. فيما يلي أربعة أسئلة رئيسية يجب طرحها أثناء تقدم هذا الحوار:

1) هل التنظيم الجديد الخاص بالذكاء الاصطناعي ضروري؟ تم بالفعل معالجة العديد من النتائج التي قد تكون إشكالية من أنظمة الذكاء الاصطناعي من خلال أطر العمل الحالية. إذا أدت خوارزمية الذكاء الاصطناعي التي يستخدمها البنك لتقييم طلبات القروض إلى قرارات قروض تمييزية عنصريًا ، فإن ذلك ينتهك قانون الإسكان العادل. إذا تسبب برنامج الذكاء الاصطناعي في سيارة بدون سائق في وقوع حادث ، فإن قانون مسؤولية المنتجات يوفر إطارًا لمتابعة الحلول.

2) ما هي مخاطر تنظيم تكنولوجيا سريعة التغير بناءً على لقطة من الوقت؟ والمثال الكلاسيكي على ذلك هو قانون الاتصالات المخزنة ، الذي سُن في عام 1986 لمعالجة تقنيات الاتصالات الرقمية الجديدة مثل البريد الإلكتروني. عند سن قانون SCA ، قدم الكونجرس حماية خصوصية أقل بكثير لرسائل البريد الإلكتروني التي مضى عليها أكثر من 180 يومًا.

كان المنطق هو أن مساحة التخزين المحدودة تعني أن الناس كانوا ينظفون بريدهم الوارد باستمرار عن طريق حذف الرسائل القديمة لإفساح المجال لرسائل جديدة. نتيجة لذلك ، اعتُبرت الرسائل المخزنة لأكثر من 180 يومًا أقل أهمية من وجهة نظر الخصوصية. ليس من الواضح ما إذا كان هذا المنطق منطقيًا على الإطلاق ، وبالتأكيد ليس له معنى في عشرينيات القرن الحالي ، عندما تكون غالبية رسائل البريد الإلكتروني وغيرها من الاتصالات الرقمية المخزنة أقدم من ستة أشهر.

الرد الشائع على المخاوف المتعلقة بتنظيم التكنولوجيا بناءً على لقطة واحدة في الوقت المناسب هو: إذا أصبح قانون أو لائحة قديمة ، فقم بتحديثها. لاكن هئا اسهل قول من الفعل. يتفق معظم الناس على أن قانون SCA أصبح قديمًا منذ عقود. ولكن نظرًا لأن الكونجرس لم يكن قادرًا على الاتفاق على كيفية مراجعة شرط الـ 180 يومًا على وجه التحديد ، فإنه لا يزال موجودًا في الكتب بعد أكثر من ثلث قرن من صدوره.

3) ما هي العواقب المحتملة غير المقصودة؟ كان قانون السماح للدول والضحايا بمكافحة الاتجار بالجنس عبر الإنترنت لعام 2017 هو قانون تم تمريره في 2018 والذي راجع القسم 230 من قانون آداب الاتصالات بهدف مكافحة الاتجار بالجنس. في حين أن هناك القليل من الأدلة على أنها قللت من الاتجار بالجنس ، فقد كان لها تأثير إشكالي كبير على مجموعة مختلفة من الناس: عاملات الجنس الذين اعتادوا الاعتماد على المواقع الإلكترونية التي تم إيقافها من قبل FOSTA-SESTA لتبادل المعلومات حول العملاء الخطرين. يوضح هذا المثال أهمية إلقاء نظرة واسعة على الآثار المحتملة للوائح المقترحة.

4) ما هي التداعيات الاقتصادية والجيوسياسية؟ إذا عمل المنظمون في الولايات المتحدة على إبطاء التقدم في مجال الذكاء الاصطناعي عن قصد ، فسيؤدي ذلك ببساطة إلى دفع الاستثمار والابتكار – وخلق فرص العمل الناتج – في أماكن أخرى. بينما يثير الذكاء الاصطناعي الناشئ العديد من المخاوف ، فإنه يعد أيضًا بجلب فوائد هائلة في مجالات تشمل التعليم والطب والتصنيع وسلامة النقل والزراعة والتنبؤ بالطقس والوصول إلى الخدمات القانونية والمزيد.

أعتقد أن لوائح منظمة العفو الدولية التي تمت صياغتها مع وضع الأسئلة الأربعة المذكورة أعلاه في الاعتبار من المرجح أن تعالج بنجاح الأضرار المحتملة للذكاء الاصطناعي مع ضمان الوصول إلى فوائده أيضًا.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى