مقالات عامة

وافق الاتحاد الأوروبي على مشروع قانون لتنظيم الذكاء الاصطناعي – وإليك كيفية عمله

مجلة المذنب نت متابعات عالمية:

غالبًا ما تُرى كلمة “خطر” في نفس الجملة مثل “الذكاء الاصطناعي” هذه الأيام. في حين أنه من المشجع أن نرى قادة العالم يفكرون في المشاكل المحتملة للذكاء الاصطناعي ، إلى جانب فوائده الصناعية والاستراتيجية ، يجب أن نتذكر أنه ليست كل المخاطر متساوية.

يوم الأربعاء ، 14 يونيو ، صوت البرلمان الأوروبي للموافقة على مسودة اقتراحه الخاص بقانون الذكاء الاصطناعي ، وهو تشريع قيد الإعداد لمدة عامين ، مع طموح لتشكيل معايير عالمية في تنظيم الذكاء الاصطناعي.

بعد المرحلة النهائية من المفاوضات ، للتوفيق بين المسودات المختلفة الصادرة عن البرلمان الأوروبي والمفوضية والمجلس الأوروبي ، يجب الموافقة على القانون قبل نهاية العام. سيصبح أول تشريع في العالم مخصص لتنظيم الذكاء الاصطناعي في جميع قطاعات المجتمع تقريبًا – على الرغم من إعفاء الدفاع.

من بين جميع الطرق التي يمكن للمرء أن يتعامل بها مع تنظيم الذكاء الاصطناعي ، تجدر الإشارة إلى أن هذا التشريع مؤطر بالكامل حول مفهوم المخاطر. لا يتم تنظيم الذكاء الاصطناعي نفسه ، بل طريقة استخدامه في مجالات محددة من المجتمع ، يحمل كل منها مشاكل محتملة مختلفة. فئات المخاطر الأربع ، الخاضعة للالتزامات القانونية المختلفة ، هي: غير مقبول ، مرتفع ، محدود ، ضئيل.

سيتم تصنيف الأنظمة التي تعتبر تهديدًا للحقوق الأساسية أو قيم الاتحاد الأوروبي على أنها تنطوي على “مخاطر غير مقبولة” وسيتم حظرها. ومن الأمثلة على هذا الخطر أنظمة الذكاء الاصطناعي المستخدمة في “ضبط الأمن التنبئي”. هذا هو استخدام الذكاء الاصطناعي لإجراء تقييمات للمخاطر للأفراد ، بناءً على المعلومات الشخصية ، للتنبؤ بما إذا كان من المحتمل أن يرتكبوا جرائم.

هناك حالة أكثر إثارة للجدل وهي استخدام تقنية التعرف على الوجوه في البث المباشر لكاميرات الشوارع. وقد أُضيف هذا أيضًا إلى قائمة المخاطر غير المقبولة ولن يُسمح به إلا بعد ارتكاب جريمة وبإذن قضائي.

وستخضع تلك الأنظمة المصنفة على أنها “عالية المخاطر” لالتزامات الإفصاح ومن المتوقع أن يتم تسجيلها في قاعدة بيانات خاصة. كما أنهم سيخضعون لمتطلبات مراقبة أو تدقيق مختلفة.

تشمل أنواع التطبيقات التي سيتم تصنيفها على أنها عالية المخاطر ، الذكاء الاصطناعي الذي يمكنه التحكم في الوصول إلى الخدمات في التعليم والتوظيف والتمويل والرعاية الصحية وغيرها من المجالات الحيوية. لا يُنظر إلى استخدام الذكاء الاصطناعي في مثل هذه المجالات على أنه أمر غير مرغوب فيه ، ولكن الرقابة ضرورية بسبب قدرتها على التأثير سلبًا على السلامة أو الحقوق الأساسية.

الفكرة هي أننا يجب أن نكون قادرين على الوثوق في أن أي برنامج يتخذ قرارات بشأن الرهن العقاري الخاص بنا سيتم فحصه بعناية للتأكد من امتثاله للقوانين الأوروبية لضمان عدم التمييز ضدنا على أساس الخصائص المحمية مثل الجنس أو الخلفية العرقية – على الأقل إذا كنا نعيش في الاتحاد الأوروبي.

اقترحت أورسولا فون دير لاين التشريع في عام 2019.
Olivier Hostel / EPA

ستخضع أنظمة الذكاء الاصطناعي “ذات المخاطر المحدودة” إلى الحد الأدنى من متطلبات الشفافية. وبالمثل ، سيتعين على مشغلي أنظمة الذكاء الاصطناعي التوليدية – على سبيل المثال ، الروبوتات التي تنتج نصًا أو صورًا – الكشف عن أن المستخدمين يتفاعلون مع جهاز.

خلال رحلته الطويلة عبر المؤسسات الأوروبية ، التي بدأت في عام 2019 ، أصبح التشريع محددًا وواضحًا بشكل متزايد بشأن المخاطر المحتملة لنشر الذكاء الاصطناعي في المواقف الحساسة – إلى جانب كيفية رصدها والتخفيف من حدتها. هناك الكثير من العمل الذي يتعين القيام به ، ولكن الفكرة واضحة: نحن بحاجة إلى أن نكون محددين إذا أردنا إنجاز الأمور.

خطر الانقراض؟

على النقيض من ذلك ، رأينا مؤخرًا التماسات تدعو إلى التخفيف من “خطر الانقراض” المفترض الذي يمثله الذكاء الاصطناعي ، دون إعطاء مزيد من التفاصيل. ردد سياسيون مختلفون هذه الآراء. تختلف هذه المخاطر العامة وطويلة المدى تمامًا عما يشكل قانون الذكاء الاصطناعي ، لأنها لا تقدم أي تفاصيل حول ما يجب أن نبحث عنه ، ولا ما يجب أن نفعله الآن للحماية منه.

إذا كانت “المخاطر” هي “الضرر المتوقع” الذي قد يأتي من شيء ما ، فمن الأفضل أن نركز على السيناريوهات المحتملة التي تكون ضارة ومحتملة في الوقت نفسه ، لأن هذه السيناريوهات تنطوي على أعلى درجة من المخاطر. لا ينبغي أن تأخذ الأحداث غير المحتملة للغاية ، مثل اصطدام كويكب ، الأولوية على الأحداث الأكثر احتمالية ، مثل تأثيرات التلوث.

المباني المدمرة.
لم يتم ذكر المخاطر العامة ، مثل احتمال انقراض الإنسان ، في القانون.
Zsolt Biczo / Shutterstock

وبهذا المعنى ، فإن مشروع القانون الذي تمت الموافقة عليه للتو من قبل برلمان الاتحاد الأوروبي له تأثير أقل ولكن أكثر جوهرية من بعض التحذيرات الأخيرة حول الذكاء الاصطناعي. إنه يحاول السير على الخط الفاصل بين حماية الحقوق والقيم ، دون منع الابتكار ، وبالتحديد معالجة كل من المخاطر والعلاجات. في حين أنه بعيد عن الكمال ، فإنه يوفر على الأقل إجراءات ملموسة.

ستكون المرحلة التالية في رحلة هذا التشريع هي الثلاثيات – الحوارات الثلاثية – حيث سيتم دمج المسودات المنفصلة للبرلمان والمفوضية والمجلس في نص نهائي. من المتوقع حدوث حلول وسط في هذه المرحلة. سيتم التصويت على القانون الناتج حيز التنفيذ ، على الأرجح في نهاية عام 2023 ، قبل بدء الحملة الانتخابية للانتخابات الأوروبية المقبلة.

بعد عامين أو ثلاثة أعوام ، يدخل القانون حيز التنفيذ وسيتعين على أي شركة تعمل داخل الاتحاد الأوروبي الامتثال له. يطرح هذا الجدول الزمني الطويل بعض الأسئلة من تلقاء نفسه ، لأننا لا نعرف كيف سيبدو الذكاء الاصطناعي أو العالم في عام 2027.

دعونا نتذكر أن رئيسة المفوضية الأوروبية ، أورسولا فون دير لاين ، اقترحت لأول مرة هذه اللائحة في صيف عام 2019 ، قبل حدوث وباء وحرب وأزمة طاقة. كان هذا أيضًا قبل أن تجعل ChatGPT السياسيين ووسائل الإعلام يتحدثون بانتظام عن خطر وجودي من الذكاء الاصطناعي.

ومع ذلك ، فإن القانون مكتوب بطريقة عامة بما فيه الكفاية والتي قد تساعده على البقاء على صلة لفترة من الوقت. من المحتمل أن يؤثر على كيفية تعامل الباحثين والشركات مع الذكاء الاصطناعي خارج أوروبا.

ما هو واضح ، مع ذلك ، هو أن كل تقنية تنطوي على مخاطر ، وبدلاً من انتظار حدوث شيء سلبي ، تحاول المؤسسات الأكاديمية ومؤسسات صنع السياسات التفكير مسبقًا في عواقب البحث. مقارنة بالطريقة التي اعتمدنا بها التقنيات السابقة – مثل الوقود الأحفوري – فإن هذا يمثل درجة من التقدم.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى