مقالات عامة

ما هو “الذكاء الاصطناعي الأخلاقي” وكيف يمكن للشركات تحقيقه؟

مجلة المذنب نت متابعات عالمية:

أثار الاندفاع لنشر تقنيات ذكاء اصطناعي جديدة وقوية ، مثل ChatGPT ، إنذارات حول الضرر المحتمل وسوء الاستخدام. وقد دفعت استجابة القانون الجليدية لمثل هذه التهديدات إلى مطالبة الشركات التي تطور هذه التقنيات بتطبيق الذكاء الاصطناعي “بشكل أخلاقي”.

لكن بالضبط ما الذي يعنيه ذلك؟

ستكون الإجابة المباشرة هي مواءمة عمليات الشركة مع واحدة أو أكثر من عشرات مجموعات مبادئ أخلاقيات الذكاء الاصطناعي التي أنتجتها الحكومات ومجموعات أصحاب المصلحة المتعددين والأكاديميين. ولكن هذا هو أسهل من القيام به.

أمضينا نحن وزملاؤنا عامين في إجراء المقابلات واستطلاع خبراء أخلاقيات الذكاء الاصطناعي عبر مجموعة من القطاعات لمحاولة فهم كيف سعوا لتحقيق الذكاء الاصطناعي الأخلاقي – وما قد يكون مفقودًا. لقد تعلمنا أن متابعة أخلاقيات الذكاء الاصطناعي على أرض الواقع لا تتعلق برسم خرائط المبادئ الأخلاقية على إجراءات الشركات بقدر ما تتعلق بتنفيذ الهياكل والعمليات الإدارية التي تمكن المؤسسة من اكتشاف التهديدات والتخفيف من حدتها.

من المحتمل أن تكون هذه أخبارًا مخيبة للآمال للمنظمات التي تبحث عن إرشادات لا لبس فيها تتجنب المناطق الرمادية ، وللمستهلكين الذين يأملون في معايير واضحة ووقائية. لكنه يشير إلى فهم أفضل لكيفية متابعة الشركات للذكاء الاصطناعي الأخلاقي.

تصارع الشكوك الأخلاقية

تركز دراستنا ، التي تشكل أساس كتاب قادم ، على المسؤولين عن إدارة قضايا أخلاقيات الذكاء الاصطناعي في كبرى الشركات التي تستخدم الذكاء الاصطناعي. من أواخر عام 2017 إلى أوائل عام 2019 ، أجرينا مقابلات مع 23 من هؤلاء المديرين. تراوحت ألقابهم من مسؤول الخصوصية ومستشار الخصوصية إلى واحد كان جديدًا في ذلك الوقت ولكنه شائع بشكل متزايد اليوم: مسؤول أخلاقيات البيانات. أسفرت محادثاتنا مع مديري أخلاقيات الذكاء الاصطناعي عن أربع وجبات رئيسية.

أولاً ، إلى جانب فوائده العديدة ، يشكل استخدام الذكاء الاصطناعي في الأعمال مخاطر كبيرة ، والشركات تعرف ذلك. أعرب مديرو أخلاقيات الذكاء الاصطناعي عن مخاوفهم بشأن الخصوصية والتلاعب والتحيز والتعتيم وعدم المساواة وتهجير العمالة. في أحد الأمثلة المعروفة ، طورت أمازون أداة ذكاء اصطناعي لفرز السير الذاتية ودربتها للعثور على مرشحين مشابهين لأولئك الذين وظفتهم في الماضي. هيمنة الذكور في صناعة التكنولوجيا تعني أن معظم موظفي أمازون هم من الرجال. وبناءً على ذلك ، تعلمت الأداة رفض المرشحات. غير قادر على حل المشكلة ، اضطرت أمازون في النهاية إلى إلغاء المشروع.

يثير الذكاء الاصطناعي التوليدي مخاوف إضافية بشأن المعلومات المضللة وخطاب الكراهية على نطاق واسع واختلاس الملكية الفكرية.

ثانيًا ، الشركات التي تسعى إلى تحقيق الذكاء الاصطناعي الأخلاقي تفعل ذلك إلى حد كبير لأسباب استراتيجية. يريدون الحفاظ على الثقة بين العملاء وشركاء الأعمال والموظفين. وهم يريدون استباق اللوائح الناشئة أو الاستعداد لها. أظهرت فضيحة Facebook-Cambridge Analytica ، التي استخدمت فيها Cambridge Analytica بيانات مستخدم Facebook ، والتي تمت مشاركتها دون موافقة ، لاستنتاج الأنواع النفسية للمستخدمين واستهدافهم بإعلانات سياسية متلاعبة ، أن الاستخدام غير الأخلاقي للتحليلات المتقدمة يمكن أن ينزع سمعة الشركة أو حتى ، كما في حالة Cambridge Analytica نفسها ، قم بإسقاطها. وبدلاً من ذلك ، أرادت الشركات التي تحدثنا إليها أن يُنظر إليها على أنها جهات مسؤولة عن بيانات الأشخاص.

كان التحدي الذي واجهه مديرو أخلاقيات الذكاء الاصطناعي هو معرفة أفضل السبل لتحقيق “الذكاء الاصطناعي الأخلاقي”. لقد نظروا أولاً إلى مبادئ أخلاقيات الذكاء الاصطناعي ، لا سيما تلك المتجذرة في أخلاقيات علم الأحياء أو مبادئ حقوق الإنسان ، لكنهم وجدوا أنها غير كافية. لم يكن الأمر يتعلق فقط بوجود العديد من مجموعات المبادئ المتنافسة. كان أن العدالة والإنصاف والإحسان والاستقلالية ومبادئ أخرى من هذا القبيل متنازع عليها وتخضع للتأويل ويمكن أن تتعارض مع بعضها البعض.

أدى ذلك إلى استنتاجنا الثالث: احتاج المديرون إلى أكثر من مبادئ الذكاء الاصطناعي عالية المستوى ليقرروا ما يجب فعله في مواقف محددة. وصف أحد مديري أخلاقيات الذكاء الاصطناعي محاولة ترجمة مبادئ حقوق الإنسان إلى مجموعة من الأسئلة التي يمكن للمطورين طرحها على أنفسهم لإنتاج أنظمة برمجيات أكثر أخلاقية للذكاء الاصطناعي. قال المدير “توقفنا بعد 34 صفحة من الأسئلة”.

رابعًا ، تحول المحترفون الذين يتصارعون مع الشكوك الأخلاقية إلى الهياكل والإجراءات التنظيمية للتوصل إلى أحكام حول ما يجب القيام به. كان من الواضح أن بعض هذه كانت غير كافية. لكن البعض الآخر ، بينما لا يزال إلى حد كبير قيد التطوير ، كان أكثر فائدة ، مثل:

  • تعيين مسؤول أخلاقيات الذكاء الاصطناعي لبناء البرنامج والإشراف عليه.
  • إنشاء لجنة داخلية لأخلاقيات الذكاء الاصطناعي لتقييم القضايا الصعبة والبت فيها.
  • صياغة قوائم مراجعة لأخلاقيات البيانات ومطالبة علماء البيانات في الخطوط الأمامية بملئها.
  • الوصول إلى الأكاديميين والمنظمين السابقين والمدافعين عن وجهات نظر بديلة.
  • إجراء تقييمات الأثر الحسابي من النوع المستخدم بالفعل في إدارة البيئة والخصوصية.

الأخلاق كعملية صنع القرار المسؤولة

الفكرة الرئيسية التي ظهرت من دراستنا هي: يجب ألا تتوقع الشركات التي تسعى إلى استخدام الذكاء الاصطناعي بشكل أخلاقي اكتشاف مجموعة بسيطة من المبادئ التي تقدم إجابات صحيحة من منظور كلي المعرفة وعين الله. بدلاً من ذلك ، يجب أن يركزوا على المهمة الإنسانية للغاية المتمثلة في محاولة اتخاذ قرارات مسؤولة في عالم من الفهم المحدود والظروف المتغيرة ، حتى لو كانت بعض القرارات في نهاية المطاف غير كاملة.

في حالة عدم وجود متطلبات قانونية صريحة ، لا يمكن للشركات ، مثل الأفراد ، سوى بذل قصارى جهدها لتوعية نفسها بكيفية تأثير الذكاء الاصطناعي على الأشخاص والبيئة ولمواكبة الاهتمامات العامة وأحدث الأبحاث وأفكار الخبراء. يمكنهم أيضًا السعي للحصول على مدخلات من مجموعة كبيرة ومتنوعة من أصحاب المصلحة والمشاركة بجدية مع المبادئ الأخلاقية رفيعة المستوى.

هذه الفكرة البسيطة تغير المحادثة بطرق مهمة. يشجع المتخصصين في أخلاقيات الذكاء الاصطناعي على تركيز طاقاتهم بشكل أقل على تحديد مبادئ الذكاء الاصطناعي وتطبيقها – على الرغم من أنها تظل جزءًا من القصة – وأكثر على تبني هياكل وعمليات صنع القرار لضمان مراعاة التأثيرات ووجهات النظر والتوقعات العامة التي يجب أن تسترشد بها. قرارات أعمالهم.

في شهادة أمام لجنة في مجلس الشيوخ في مايو 2023 ، دعا سام ألتمان الرئيس التنفيذي لشركة OpenAI إلى إشراف أكثر صرامة ، بما في ذلك متطلبات الترخيص ، للشركات التي تطور برمجيات الذكاء الاصطناعي.
AP Photo / باتريك سيمانسكي

في النهاية ، نعتقد أن القوانين واللوائح ستحتاج إلى توفير معايير موضوعية للمنظمات لتحقيقها. لكن هياكل وعمليات اتخاذ القرار المسؤول هي مكان للبدء وينبغي ، بمرور الوقت ، أن تساعد في بناء المعرفة اللازمة لصياغة معايير قانونية موضوعية وقائية وقابلة للتطبيق.

في الواقع ، يركز القانون والسياسة الناشئان للذكاء الاصطناعي على العملية. أصدرت مدينة نيويورك قانونًا يطالب الشركات بمراجعة أنظمة الذكاء الاصطناعي الخاصة بها بحثًا عن التحيز الضار قبل استخدام هذه الأنظمة لاتخاذ قرارات التوظيف. قدم أعضاء الكونجرس مشاريع قوانين تتطلب من الشركات إجراء تقييمات خوارزمية للتأثير قبل استخدام الذكاء الاصطناعي للإقراض والتوظيف والتأمين وغير ذلك من القرارات اللاحقة. تؤكد هذه القوانين على العمليات التي تعالج مقدمًا التهديدات العديدة للذكاء الاصطناعي.

اتخذ بعض مطوري الذكاء الاصطناعي التوليدي نهجًا مختلفًا تمامًا. أوضح سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، في البداية ، أنه عند إطلاق ChatGPT للجمهور ، سعت الشركة إلى منح chatbot “عرضًا كافيًا للعالم الحقيقي بحيث تجد بعض حالات إساءة الاستخدام التي لم تفكر فيها حتى يمكنك بناء أدوات أفضل. ” بالنسبة لنا ، هذا ليس ذكاءً اصطناعيًا مسؤولاً. إنها تعامل البشر على أنهم خنازير غينيا في تجربة محفوفة بالمخاطر.

تُظهر دعوة ألتمان في جلسة استماع لمجلس الشيوخ في مايو 2023 بشأن التنظيم الحكومي للذكاء الاصطناعي وعيًا أكبر بالمشكلة. لكننا نعتقد أنه يذهب بعيداً في تحويل المسؤوليات التي يجب على مطوري الذكاء الاصطناعي التوليدي تحملها إلى الحكومة. يتطلب الحفاظ على ثقة الجمهور وتجنب الإضرار بالمجتمع من الشركات أن تتحمل مسؤولياتها بشكل كامل.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى