مقالات عامة

حان الوقت لنتحدث عن إنشاء مساحات خالية من الذكاء الاصطناعي

مجلة المذنب نت متابعات عالمية:

في فيلم الخيال العلمي الكلاسيكي دان سيمونز 1989 هايبريون، فإن أبطال الرواية مرتبطون بشكل دائم بشبكة ذكاء اصطناعي تُعرف باسم “Datasphere” والتي تغذي على الفور المعلومات مباشرة إلى أدمغتهم. في حين أن المعرفة متاحة على الفور ، فإن القدرة على التفكير بنفسه تضيع.

بعد مرور أكثر من 30 عامًا على نشر رواية سيمونز ، يمكن التفكير في التأثير المتزايد للذكاء الاصطناعي على قدراتنا الفكرية بعبارات مماثلة. للتخفيف من هذه المخاطر ، أقدم حلًا يمكنه التوفيق بين تقدم الذكاء الاصطناعي والحاجة إلى احترام قدراتنا المعرفية والحفاظ عليها.

فوائد الذكاء الاصطناعي لرفاهية الإنسان واسعة النطاق ومُعلن عنها جيدًا. من بينها قدرة التكنولوجيا على النهوض بالعدالة الاجتماعية ، ومكافحة العنصرية النظامية ، وتحسين اكتشاف السرطان ، وتخفيف الأزمة البيئية وزيادة الإنتاجية.

ومع ذلك ، فإن الجوانب المظلمة للذكاء الاصطناعي أصبحت أيضًا موضع تركيز ، بما في ذلك التحيز العنصري ، وقدرته على تعميق الفوارق الاجتماعية والاقتصادية والتلاعب بمشاعرنا وسلوكنا.

أول كتاب قواعد للذكاء الاصطناعي في الغرب؟

على الرغم من المخاطر المتزايدة ، لا توجد حتى الآن قواعد وطنية أو دولية ملزمة تنظم الذكاء الاصطناعي. وهذا هو سبب أهمية اقتراح المفوضية الأوروبية بشأن تنظيم الذكاء الاصطناعي.

يفحص قانون الذكاء الاصطناعي الذي اقترحته المفوضية الأوروبية ، والذي تمت الموافقة على أحدث مسودته من قبل لجنتي البرلمان الأوروبي الأسبوع الماضي ، المخاطر المحتملة الكامنة في استخدام التكنولوجيا ، ويصنفها وفقًا لثلاث فئات: “غير مقبول” و “مرتفع” و “آخر”. في الفئة الأولى ، ممارسات الذكاء الاصطناعي المحظورة هي تلك التي:

  • التلاعب بسلوك الشخص بطريقة تسبب أو يحتمل أن تسبب لذلك الشخص أو شخصًا آخر أذى جسديًا أو نفسيًا.

  • استغلال نقاط الضعف لدى مجموعة معينة من الأشخاص (على سبيل المثال ، العمر ، والإعاقات) بحيث يشوه الذكاء الاصطناعي سلوك هؤلاء الأشخاص ويحتمل أن يتسبب في ضرر.

  • تقييم وتصنيف الناس (على سبيل المثال ، النقاط الاجتماعية).

  • استخدم تقنية التعرف على الوجه في الوقت الفعلي في الأماكن العامة لغرض الإنفاذ ، باستثناء حالات محددة (على سبيل المثال ، الهجمات الإرهابية).

في قانون الذكاء الاصطناعي ، ترتبط مفاهيم المخاطر والأضرار “غير المقبولة” ارتباطًا وثيقًا. هذه خطوات مهمة وتكشف عن الحاجة إلى حماية أنشطة محددة ومساحات مادية من تدخل الذكاء الاصطناعي. مع زميلي Caitlin Mulholland ، أظهرنا الحاجة إلى تنظيم أقوى للذكاء الاصطناعي والتعرف على الوجه لحماية حقوق الإنسان الأساسية مثل الخصوصية.

وهذا صحيح بشكل خاص فيما يتعلق بالتطورات الأخيرة في مجال الذكاء الاصطناعي التي تنطوي على صنع القرار الآلي في المجالات القضائية واستخدامه لإدارة الهجرة. تثير النقاشات حول ChatGPT و OpenAI مخاوف بشأن تأثيرهما على قدراتنا الفكرية.

ملاذات خالية من الذكاء الاصطناعي

تُظهر هذه الحالات القلق بشأن نشر الذكاء الاصطناعي في القطاعات التي تكون فيها حقوق الإنسان والخصوصية والقدرات المعرفية على المحك. كما يشيرون إلى الحاجة إلى مساحات حيث يجب تنظيم أنشطة الذكاء الاصطناعي بشدة.

أنا أزعم أن هذه المناطق يمكن تحديدها من خلال المفهوم القديم للمقدسات. في مقال عن “رأسمالية المراقبة” ، تشير شوشانا زوبوف بصراحة إلى حق الملاذ باعتباره ترياقًا للسلطة ، حيث أخذنا في جولة في المواقع المقدسة والكنائس والأديرة حيث وجدت المجتمعات المضطهدة ملاذًا ذات يوم. ضد انتشار المراقبة الرقمية ، يصر Zuboff على حق الملاذ من خلال إنشاء تنظيم رقمي قوي حتى نتمكن من الاستمتاع بـ “مساحة ملجأ غير قابل للانتهاك”.

لا تعني فكرة “الملاذات الخالية من الذكاء الاصطناعي” حظر أنظمة الذكاء الاصطناعي ، ولكنها تعني تنظيمًا أقوى في تطبيقات هذه التقنيات. في حالة قانون الذكاء الاصطناعي الخاص بالاتحاد الأوروبي ، فإنه ينطوي على تعريف أكثر دقة لفكرة الضرر. ومع ذلك ، لا يوجد تعريف واضح للضرر في تشريعات الاتحاد الأوروبي المقترحة ولا على مستوى الدول الأعضاء. كما تجادل سوزان فيرجنول ، فإن الحل المحتمل هو إيجاد معايير مشتركة بين الدول الأعضاء في أوروبا من شأنها أن تصف بشكل أفضل أنواع الضرر الناتج عن ممارسات الذكاء الاصطناعي الخادعة. كما ينبغي النظر في الأضرار الجماعية على أساس العرق والخلفية الاجتماعية والاقتصادية.

لتنفيذ ملاذات خالية من الذكاء الاصطناعي ، يجب تطبيق اللوائح التي تسمح لنا بالحفاظ على ضررنا المعرفي والعقلي. قد تتمثل نقطة البداية في فرض جيل جديد من الحقوق – “العناصر العصبية” – التي من شأنها حماية حريتنا المعرفية وسط التقدم السريع للتقنيات العصبية. يعتقد روبرتو أندورنو ومارسيلو إينكا أن الحق في السلامة العقلية – التي تحميها بالفعل المحكمة الأوروبية لحقوق الإنسان – يجب أن تتجاوز حالات المرض العقلي وتتصدى للتدخلات غير المصرح بها ، بما في ذلك من خلال أنظمة الذكاء الاصطناعي.

ملاذات خالية من الذكاء الاصطناعي: بيان

مقدمًا ، أود أن أقترح حق “ملاذات خالية من الذكاء الاصطناعي”. وهي تلخص المواد (المؤقتة) التالية:

  • الحق في الانسحاب. يحق لجميع الأفراد الانسحاب من أنواع دعم الذكاء الاصطناعي في المجالات الحساسة التي يمكن للمرء أن يختارها خلال الفترة الزمنية التي قد يقررها المرء. وهذا يستلزم عدم تداخل جهاز الذكاء الاصطناعي بشكل كامل و / أو تداخل معتدل.

  • لا عقوبات. لن يترتب على الانسحاب من دعم الذكاء الاصطناعي أي عيوب اقتصادية أو اجتماعية.

  • الحق في تقرير الإنسان. لجميع الأفراد الحق في اتخاذ قرار نهائي من قبل الإنسان.

  • المناطق الحساسة والأشخاص. بالتعاون مع المجتمع المدني والجهات الفاعلة الخاصة ، ستحدد السلطات العامة المجالات الحساسة بشكل خاص (على سبيل المثال ، التعليم والصحة) وكذلك الفئات البشرية / الاجتماعية ، مثل الأطفال ، التي لا ينبغي أن تتعرض / أو تتعرض بشكل معتدل للذكاء الاصطناعي التدخلي.

ملاذات خالية من الذكاء الاصطناعي في العالم المادي

حتى الآن ، تم تطبيق “المساحات الخالية من الذكاء الاصطناعي” بشكل غير متساوٍ ، من وجهة نظر مكانية بحتة. اختارت بعض المدارس الأمريكية والأوروبية تجنب الشاشات من الفصول الدراسية – ما يسمى بحركة “التعليم منخفض التقنية / بلا تكنولوجيا”. تعتمد العديد من برامج التعليم الرقمي على التصميمات التي يمكن أن تفضل الإدمان ، بينما تميل المدارس العامة وذات التمويل المنخفض إلى الاعتماد بشكل متزايد على الشاشات والأدوات الرقمية ، مما يعزز الفجوة الاجتماعية.

حتى خارج الإعدادات الخاضعة للرقابة مثل الفصول الدراسية ، فإن وصول الذكاء الاصطناعي آخذ في التوسع. للتراجع ، بين عامي 2019 و 2021 ، أصدرت عشرات المدن الأمريكية قوانين تقيد وتحظر استخدام التعرف على الوجه لأغراض إنفاذ القانون. ومع ذلك ، منذ عام 2022 ، تتراجع العديد من المدن استجابة لتصور الجريمة المتزايدة. على الرغم من التشريع المقترح من قبل المفوضية الأوروبية ، في فرنسا ، ستراقب كاميرات المراقبة بالفيديو بالذكاء الاصطناعي أولمبياد باريس في عام 2024

على الرغم من قدرتها على تعزيز عدم المساواة ، يتم استخدام الذكاء الاصطناعي لتحليل الوجه في بعض مقابلات الوظائف. بعد تغذيته ببيانات المرشحين الذين نجحوا في الماضي ، يميل الذكاء الاصطناعي إلى اختيار المرشحين من الخلفيات المميزة واستبعاد المرشحين من مختلف الخلفيات. يجب حظر مثل هذه الممارسات.

يجب أيضًا حظر محركات البحث على الإنترنت التي تعمل بالذكاء الاصطناعي ، لأن التكنولوجيا ليست جاهزة للاستخدام على هذا المستوى. في الواقع ، كما أشارت ميليسا هيكيلا في عام 2023 استعراض تكنولوجيا معهد ماساتشوستس للتكنولوجيا المقالة ، “يبدو النص الذي تم إنشاؤه بواسطة AI موثوقًا ويستشهد بالمصادر ، ومن المفارقات أن تجعل المستخدمين أقل احتمالية للتحقق من المعلومات التي يرونها”. هناك أيضًا مقياس للاستغلال ، حيث “يقوم المستخدمون الآن بعمل اختبار هذه التقنية مجانًا.”

السماح بالتقدم والحفاظ على الحقوق

سيسمح الحق في ملاذات خالية من الذكاء الاصطناعي بالتقدم التقني للذكاء الاصطناعي مع حماية القدرات المعرفية والعاطفية لجميع الأفراد في نفس الوقت. تعد القدرة على إلغاء الاشتراك في استخدام الذكاء الاصطناعي أمرًا ضروريًا إذا أردنا الحفاظ على قدراتنا لاكتساب المعرفة والخبرة بطرقنا الخاصة والحفاظ على حكمنا الأخلاقي.

في رواية Dan Simmons ، تم فصل “cybrid” المولود من جديد للشاعر John Keats عن Datasphere وهو قادر على مقاومة الاستيلاء على أنظمة الذكاء الاصطناعي. هذه النقطة مفيدة لأنها تكشف أيضًا عن أهمية المناقشات حول تدخل الذكاء الاصطناعي في الفنون والموسيقى والأدب والثقافة. في الواقع ، إلى جانب قضايا حقوق النشر ، ترتبط هذه الأنشطة البشرية ارتباطًا وثيقًا بخيالنا وإبداعنا ، وهذه القدرات هي أساسًا حجر الزاوية لقدراتنا على المقاومة والتفكير بأنفسنا.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى