مقالات عامة

نحن بحاجة إلى الاستعداد لمخاطر السلامة العامة التي يشكلها الذكاء الاصطناعي

مجلة المذنب نت متابعات عالمية:

بالنسبة للجزء الأكبر ، كان تركيز إدارة الطوارئ المعاصرة على الأخطار الطبيعية والتكنولوجية والتي من صنع الإنسان مثل الفيضانات والزلازل والأعاصير والحوادث الصناعية والظواهر الجوية الشديدة والهجمات الإلكترونية.

ومع ذلك ، مع زيادة توافر وقدرات الذكاء الاصطناعي ، قد نرى قريبًا مخاطر السلامة العامة الناشئة المتعلقة بهذه التقنيات والتي سنحتاجها للتخفيف والاستعداد لها.

على مدار العشرين عامًا الماضية ، عملت أنا وزملائي – جنبًا إلى جنب مع العديد من الباحثين الآخرين – على الاستفادة من الذكاء الاصطناعي لتطوير نماذج وتطبيقات يمكنها تحديد المخاطر وتقييمها والتنبؤ بها ومراقبتها واكتشافها لإبلاغ عمليات الاستجابة للطوارئ واتخاذ القرار.

لقد وصلنا الآن إلى نقطة تحول حيث أصبح الذكاء الاصطناعي مصدرًا محتملاً للمخاطر على نطاق يجب إدراجه في مراحل إدارة المخاطر والطوارئ – التخفيف أو الوقاية والتأهب والاستجابة والتعافي.

الذكاء الاصطناعي وتصنيف المخاطر

يمكن تصنيف مخاطر الذكاء الاصطناعي إلى نوعين: مقصودة وغير مقصودة. المخاطر غير المقصودة هي تلك التي تسببها الأخطاء البشرية أو الفشل التكنولوجي.

مع زيادة استخدام الذكاء الاصطناعي ، سيكون هناك المزيد من الأحداث السلبية الناجمة عن الخطأ البشري في نماذج الذكاء الاصطناعي أو الفشل التكنولوجي في التقنيات القائمة على الذكاء الاصطناعي. يمكن أن تحدث هذه الأحداث في جميع أنواع الصناعات بما في ذلك النقل (مثل الطائرات بدون طيار أو القطارات أو السيارات ذاتية القيادة) والكهرباء والنفط والغاز والتمويل والبنوك والزراعة والصحة والتعدين.

المخاطر المتعمدة للذكاء الاصطناعي هي تهديدات محتملة ناتجة عن استخدام الذكاء الاصطناعي لإلحاق الضرر بالأشخاص والممتلكات. يمكن أيضًا استخدام الذكاء الاصطناعي للحصول على مزايا غير قانونية من خلال تعريض أنظمة الأمن والسلامة للخطر.

في رأيي ، قد لا يكون هذا التصنيف البسيط المتعمد وغير المقصود كافياً في حالة الذكاء الاصطناعي. هنا ، نحتاج إلى إضافة فئة جديدة من التهديدات الناشئة – إمكانية تجاوز الذكاء الاصطناعي للتحكم البشري واتخاذ القرار. قد يتم تشغيل هذا عن قصد أو عن غير قصد.

لقد حذر العديد من خبراء الذكاء الاصطناعي بالفعل من مثل هذه التهديدات المحتملة. دعت رسالة مفتوحة مؤخرًا من الباحثين والعلماء وغيرهم من المشاركين في تطوير الذكاء الاصطناعي إلى وقف تطويره بشكل أكبر.

https://www.youtube.com/watch؟v=qpoRO378qRY

رائد الذكاء الاصطناعي جيفري هينتون في مقابلة مع شبكة سي بي إس حول مخاطر التكنولوجيا.

مخاطر السلامة العامة

يستخدم خبراء السلامة العامة وإدارة الطوارئ مصفوفات المخاطر لتقييم المخاطر ومقارنتها. باستخدام هذه الطريقة ، يتم تقييم المخاطر نوعًا أو كميًا بناءً على تواترها ونتائجها ، وتصنف آثارها على أنها منخفضة أو متوسطة أو عالية.

تعتبر الأخطار التي لها تواتر منخفض وعواقب أو تأثير منخفض مخاطر منخفضة ولا يلزم اتخاذ إجراءات إضافية لإدارتها. تعتبر المخاطر التي لها عواقب متوسطة ومتوسطة التكرار مخاطرة متوسطة. هذه المخاطر تحتاج إلى مراقبة عن كثب.

تصنف الأخطار ذات التكرار العالي أو العواقب العالية أو المرتفعة في كل من العواقب والتكرار على أنها مخاطر عالية. يجب تقليل هذه المخاطر من خلال اتخاذ تدابير إضافية للحد من المخاطر وتخفيفها. قد يؤدي عدم اتخاذ إجراءات فورية ومناسبة إلى خسائر بشرية وممتلكات جسيمة.

حتى الآن ، لم تتم إضافة مخاطر ومخاطر الذكاء الاصطناعي إلى مصفوفات تقييم المخاطر بما يتجاوز الاستخدام التنظيمي لتطبيقات الذكاء الاصطناعي. لقد حان الوقت الذي يجب أن نبدأ فيه بسرعة في إدخال مخاطر الذكاء الاصطناعي المحتملة في إدارة المخاطر والطوارئ المحلية والوطنية والعالمية.

تقييم مخاطر الذكاء الاصطناعي

أصبحت تقنيات الذكاء الاصطناعي أكثر استخدامًا من قبل المؤسسات والمنظمات والشركات في مختلف القطاعات ، وبدأت تظهر المخاطر المرتبطة بالذكاء الاصطناعي.

في عام 2018 ، طورت شركة المحاسبة KPMG “مصفوفة المخاطر والضوابط للذكاء الاصطناعي”. يسلط الضوء على مخاطر استخدام الذكاء الاصطناعي من قبل الشركات ويحثهم على التعرف على هذه المخاطر الناشئة الجديدة. وحذر التقرير من أن تقنية الذكاء الاصطناعي تتقدم بسرعة كبيرة وأنه يجب اتخاذ تدابير للسيطرة على المخاطر قبل أن تطغى على الأنظمة.

بدأت الحكومات أيضًا في تطوير بعض المبادئ التوجيهية لتقييم المخاطر لاستخدام التقنيات والحلول القائمة على الذكاء الاصطناعي. ومع ذلك ، فإن هذه الإرشادات تقتصر على مخاطر مثل التحيز الخوارزمي وانتهاك الحقوق الفردية.

على المستوى الحكومي ، أصدرت الحكومة الكندية “التوجيه بشأن صنع القرار الآلي” لضمان قيام المؤسسات الفيدرالية بتقليل المخاطر المرتبطة بأنظمة الذكاء الاصطناعي وإنشاء آليات حوكمة مناسبة.

الهدف الرئيسي من التوجيه هو ضمان تقليل المخاطر التي يتعرض لها العملاء والمؤسسات الفيدرالية والمجتمع الكندي عند نشر أنظمة الذكاء الاصطناعي. وفقًا لهذا التوجيه ، يجب إجراء تقييمات المخاطر من قبل كل إدارة للتأكد من أن الإجراءات الوقائية المناسبة مطبقة وفقًا لسياسة الأمن الحكومي.

في عام 2021 ، كلف الكونجرس الأمريكي المعهد الوطني للمعايير والتكنولوجيا بتطوير إطار عمل لإدارة مخاطر الذكاء الاصطناعي لوزارة الدفاع. يوصي إطار عمل تقييم مخاطر الذكاء الاصطناعي الطوعي المقترح بحظر استخدام أنظمة الذكاء الاصطناعي التي تنطوي على مخاطر غير مقبولة.

شوهدت رافعة شوكية آلية ومحرك طرود في صالة عرض مستودع الروبوتات الذكية التابعة لشركة Deloitte Canada’s Smart Factory AI في مونتريال.
الصحافة الكندية / ريان ريميورز

التهديدات والمنافسة

كان الكثير من تركيز السياسة على المستوى الوطني على الذكاء الاصطناعي من منظور الأمن القومي والمنافسة العالمية – الأمن القومي والمخاطر الاقتصادية للتخلف عن تكنولوجيا الذكاء الاصطناعي.

سلطت لجنة الأمن القومي الأمريكية المعنية بالذكاء الاصطناعي الضوء على مخاطر الأمن القومي المرتبطة بالذكاء الاصطناعي. لم تكن هذه من التهديدات العامة للتكنولوجيا نفسها ، ولكن من الخسارة في المنافسة العالمية لتطوير الذكاء الاصطناعي في بلدان أخرى ، بما في ذلك الصين.

في عام 2017 تقرير المخاطر العالمية، سلط المنتدى الاقتصادي العالمي الضوء على أن الذكاء الاصطناعي هو واحد فقط من التقنيات الناشئة التي يمكن أن تؤدي إلى تفاقم المخاطر العالمية. أثناء تقييم المخاطر التي يشكلها الذكاء الاصطناعي ، خلص التقرير إلى أنه في ذلك الوقت ، لا تزال أنظمة الذكاء الاصطناعي فائقة الذكاء تشكل تهديدًا نظريًا.

ومع ذلك ، فإن الأحدث تقرير المخاطر العالمية 2023 لا يذكر حتى المخاطر المرتبطة بالذكاء الاصطناعي والذكاء الاصطناعي مما يعني أن قادة الشركات العالمية التي تقدم مدخلات لتقرير المخاطر العالمية لم ينظروا إلى الذكاء الاصطناعي على أنه خطر مباشر.

أسرع من السياسة

يتقدم تطوير الذكاء الاصطناعي بشكل أسرع بكثير من سياسات الحكومة والشركات في فهم المخاطر والتنبؤ بها وإدارتها. تجعل الظروف العالمية الحالية ، جنبًا إلى جنب مع المنافسة السوقية لتقنيات الذكاء الاصطناعي ، من الصعب التفكير في فرصة للحكومات للتوقف مؤقتًا وتطوير آليات إدارة المخاطر.

بينما يجب أن نحاول بشكل جماعي واستباقي آليات الحوكمة هذه ، نحتاج جميعًا إلى الاستعداد للتأثيرات الكارثية الكبرى للذكاء الاصطناعي على أنظمتنا ومجتمعاتنا.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى