عمالقة التكنولوجيا يجبرون على الكشف عن أسرار الذكاء الاصطناعي – وإليك كيف يمكن لهذا أن يجعل الحياة أفضل للجميع

مجلة المذنب نت متابعات عالمية:
تجبر المفوضية الأوروبية 19 من عمالقة التكنولوجيا بما في ذلك Amazon و Google و TikTok و YouTube على شرح خوارزميات الذكاء الاصطناعي (AI) بموجب قانون الخدمات الرقمية. إن مطالبة هذه الشركات – المنصات ومحركات البحث التي تضم أكثر من 45 مليون مستخدم في الاتحاد الأوروبي – بهذه المعلومات هي خطوة مطلوبة بشدة نحو جعل الذكاء الاصطناعي أكثر شفافية وخضوعًا للمساءلة. هذا سيجعل الحياة أفضل للجميع.
من المتوقع أن يؤثر الذكاء الاصطناعي على كل جانب من جوانب حياتنا – من الرعاية الصحية والتعليم إلى ما ننظر إليه ونستمع إليه ، وحتى مدى جودة كتابتنا. لكن الذكاء الاصطناعي يولد أيضًا الكثير من الخوف ، غالبًا ما يدور حول جهاز كمبيوتر يشبه الإله يصبح أكثر ذكاءً منا ، أو خطر قيام آلة مكلفة بمهمة غير ضارة بتدمير البشرية عن غير قصد. بشكل أكثر واقعية ، غالبًا ما يتساءل الناس عما إذا كان الذكاء الاصطناعي سيجعلهم زائدين عن الحاجة.
لقد كنا هناك من قبل: لقد حلت الآلات والروبوتات بالفعل محل العديد من عمال المصانع وموظفي البنوك دون أن يؤدي ذلك إلى نهاية العمل. لكن مكاسب الإنتاجية القائمة على الذكاء الاصطناعي تأتي مع مشكلتين جديدتين: الشفافية والمساءلة. وسيخسر الجميع إذا لم نفكر بجدية في أفضل طريقة لمعالجة هذه المشاكل.
بالطبع ، لقد اعتدنا الآن على تقييمنا بواسطة الخوارزميات. تستخدم البنوك البرامج للتحقق من درجات الائتمان الخاصة بنا قبل أن تعرض علينا قرضًا عقاريًا ، وكذلك شركات التأمين أو شركات الهاتف المحمول. تتأكد تطبيقات مشاركة الركوب من أننا سعداء بما يكفي قبل أن تعرض علينا قيادة. تستخدم هذه التقييمات قدرًا محدودًا من المعلومات ، يختارها البشر: يعتمد تصنيفك الائتماني على سجل مدفوعاتك ، ويعتمد تصنيفك في Uber على شعور السائقين السابقين تجاهك.
تقييمات الصندوق الأسود
لكن التقنيات الجديدة القائمة على الذكاء الاصطناعي تجمع وتنظم البيانات غير الخاضعة للإشراف من قبل البشر. هذا يعني أن جعل شخصًا ما مسؤولاً أكثر تعقيدًا أو فهم العوامل التي تم استخدامها للتوصل إلى تقييم آلي أو قرار.
ماذا لو بدأت في العثور على أنه لا أحد يتصل بك مرة أخرى عند التقدم لوظيفة ، أو أنه لا يُسمح لك باقتراض المال؟ قد يكون هذا بسبب خطأ ما في مكان ما على الإنترنت.
في أوروبا ، يحق لك أن تُنسى وأن تطلب من منصات الإنترنت إزالة المعلومات غير الدقيقة عنك. ولكن سيكون من الصعب معرفة ماهية المعلومات غير الصحيحة إذا كانت تأتي من خوارزمية غير خاضعة للإشراف. على الأرجح ، لن يعرف أي إنسان الإجابة الدقيقة.
إذا كانت الأخطاء سيئة ، فقد تكون الدقة أسوأ. ماذا سيحدث على سبيل المثال إذا سمحت لخوارزمية بالنظر في جميع البيانات المتاحة عنك وتقييم قدرتك على سداد الائتمان؟
يمكن أن تستنتج خوارزمية عالية الأداء أنه ، مع تساوي كل شيء آخر ، امرأة ، أو عضو في مجموعة عرقية تميل إلى التمييز ضدها ، أو من سكان حي فقير ، أو شخص يتحدث بلكنة أجنبية أو ليس ” حسن المظهر “، أقل جدارة ائتمانية.
تظهر الأبحاث أن هذه الأنواع من الناس يمكن أن تتوقع ربحًا أقل من الآخرين ، وبالتالي فهي أقل احتمالية لسداد رصيدها – ستعرف الخوارزميات أيضًا ذلك. في حين أن هناك قواعد لمنع الناس في البنوك من التمييز ضد المقترضين المحتملين ، فإن الخوارزمية التي تعمل بمفردها يمكن أن تعتبر أنه من الدقة تحميل هؤلاء الأشخاص المزيد من الأموال لاقتراض الأموال. مثل هذا التمييز الإحصائي يمكن أن يخلق حلقة مفرغة: إذا كان عليك دفع المزيد للاقتراض ، فقد تواجه صعوبة في تسديد هذه المدفوعات الأعلى.
حتى إذا قمت بحظر الخوارزمية من استخدام بيانات حول الخصائص المحمية ، فقد تصل إلى استنتاجات مماثلة بناءً على ما تشتريه ، والأفلام التي تشاهدها ، والكتب التي تقرأها ، أو حتى الطريقة التي تكتب بها والنكات التي تجعلك تضحك. ومع ذلك ، تُستخدم الخوارزميات بالفعل لفحص طلبات التوظيف وتقييم الطلاب ومساعدة الشرطة.
تكلفة الدقة
إلى جانب اعتبارات الإنصاف ، يمكن أن يؤذي التمييز الإحصائي الجميع. أظهرت دراسة لمحلات السوبر ماركت الفرنسية ، على سبيل المثال ، أنه عندما يعمل الموظفون الذين يحملون اسمًا إسلاميًا تحت إشراف مدير متحيز ، يكون الموظف أقل إنتاجية لأن تحيز المشرف يصبح نبوءة تتحقق من تلقاء نفسها.
تظهر الأبحاث في المدارس الإيطالية أن القوالب النمطية الجنسانية تؤثر على الإنجاز. عندما يعتقد المعلم أن الفتيات أضعف من الأولاد في الرياضيات وأقوى في الأدب ، ينظم الطلاب جهودهم وفقًا لذلك ويثبت المعلم على حق. نتيجة لذلك ، قد ينتهي الأمر ببعض الفتيات اللاتي كان من الممكن أن يكن رياضيات أو أولادًا رائعين ، ممن كان من الممكن أن يكونوا كاتبات رائعات ، باختيار مهنة خاطئة.
عندما يشارك الناس في صنع القرار ، يمكننا قياس التحيز ، وإلى حد ما ، تصحيحه. لكن من المستحيل جعل الخوارزميات غير الخاضعة للرقابة مسؤولة إذا لم نكن نعرف المعلومات الدقيقة التي يستخدمونها لاتخاذ قراراتهم.
صورة الأرض / شترستوك
إذا كان للذكاء الاصطناعي تحسين حياتنا حقًا ، فستكون الشفافية والمساءلة أمرًا أساسيًا – من الناحية المثالية ، حتى قبل إدخال الخوارزميات في عملية صنع القرار. هذا هو هدف قانون الذكاء الاصطناعي للاتحاد الأوروبي. وهكذا ، كما هو الحال غالبًا ، يمكن لقواعد الاتحاد الأوروبي أن تصبح بسرعة المعيار العالمي. لهذا السبب يجب على الشركات مشاركة المعلومات التجارية مع المنظمين قبل استخدامها في الممارسات الحساسة مثل التوظيف.
بالطبع ، هذا النوع من التنظيم ينطوي على تحقيق التوازن. ترى شركات التكنولوجيا الكبرى أن الذكاء الاصطناعي هو الشيء الكبير التالي ، والابتكار في هذا المجال أصبح الآن أيضًا سباقًا جيوسياسيًا. لكن غالبًا ما يحدث الابتكار فقط عندما تتمكن الشركات من الاحتفاظ بسرية بعض تقنياتها ، وبالتالي هناك دائمًا خطر أن الكثير من التنظيم سيعيق التقدم.
يعتقد البعض أن غياب الاتحاد الأوروبي عن ابتكارات الذكاء الاصطناعي الرئيسية هو نتيجة مباشرة لقوانين حماية البيانات الصارمة. ولكن ما لم نجعل الشركات مسؤولة عن نتائج خوارزمياتها ، فإن العديد من الفوائد الاقتصادية المحتملة من تطوير الذكاء الاصطناعي يمكن أن تأتي بنتائج عكسية على أي حال.
نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة