للذكاء الاصطناعي القدرة على إحداث ثورة في الرعاية الصحية – لكن يجب علينا أولاً مواجهة خطر التحيز الخوارزمي

مجلة المذنب نت متابعات عالمية:
يتحرك الذكاء الاصطناعي (AI) بسرعة وسيصبح أداة دعم مهمة في الرعاية السريرية. تشير الأبحاث إلى أن خوارزميات الذكاء الاصطناعي يمكنها الكشف بدقة عن الأورام الميلانينية والتنبؤ بسرطان الثدي في المستقبل.
ولكن قبل أن يتم دمج الذكاء الاصطناعي في الاستخدام السريري الروتيني ، يجب أن نتصدى لتحدي التحيز الخوارزمي. قد تحتوي خوارزميات الذكاء الاصطناعي على تحيزات متأصلة يمكن أن تؤدي إلى قضايا التمييز والخصوصية. يمكن لأنظمة الذكاء الاصطناعي أيضًا أن تتخذ قرارات دون الإشراف المطلوب أو المدخلات البشرية.
يأتي مثال على الآثار الضارة المحتملة للذكاء الاصطناعي من مشروع دولي يهدف إلى استخدام الذكاء الاصطناعي لإنقاذ الأرواح من خلال تطوير علاجات طبية متطورة. في إحدى التجارب ، عكس الفريق نموذج الذكاء الاصطناعي “الجيد” الخاص بهم لإنشاء خيارات لنموذج ذكاء اصطناعي جديد لإحداث “ضرر”.
في أقل من ست ساعات من التدريب ، أنتجت خوارزمية الذكاء الاصطناعي المعكوسة عشرات الآلاف من عوامل الحرب الكيميائية المحتملة ، مع العديد من العوامل الأكثر خطورة من عوامل الحرب الحالية. هذا مثال صارخ فيما يتعلق بالمركبات الكيميائية ، لكنه بمثابة دعوة للاستيقاظ لتقييم العواقب الأخلاقية المعروفة والتي لا يمكن تصورها للذكاء الاصطناعي.
الذكاء الاصطناعي في الرعاية السريرية
في الطب ، نتعامل مع بيانات الأشخاص الأكثر خصوصية وغالباً قرارات تغير حياتهم. تعد أطر أخلاقيات الذكاء الاصطناعي القوية أمرًا ضروريًا.
يهدف مشروع الصرع الأسترالي إلى تحسين حياة الناس وجعل الرعاية السريرية متاحة على نطاق أوسع. استنادًا إلى التصوير المتقدم للدماغ والمعلومات الجينية والمعرفية من آلاف الأشخاص المصابين بالصرع ، نخطط لاستخدام الذكاء الاصطناعي للإجابة على الأسئلة غير القابلة للإجابة حاليًا.
هل ستستمر نوبات هذا الشخص؟ ما هو الدواء الأكثر فعالية؟ هل جراحة الدماغ خيار علاجي قابل للتطبيق؟ هذه أسئلة أساسية يكافح الطب الحديث لمعالجتها.
بصفتي قائد الذكاء الاصطناعي لهذا المشروع ، فإن شاغلي الرئيسي هو أن الذكاء الاصطناعي يتحرك بسرعة وأن الإشراف التنظيمي ضئيل. هذه المشكلات هي سبب قيامنا مؤخرًا بإنشاء إطار عمل أخلاقي لاستخدام الذكاء الاصطناعي كأداة دعم سريري. يهدف هذا الإطار إلى ضمان أن تكون تقنيات الذكاء الاصطناعي لدينا منفتحة وآمنة وجديرة بالثقة ، مع تعزيز الشمولية والإنصاف في الرعاية السريرية.
اقرأ المزيد: يعمل الذكاء الاصطناعي على تغيير الطب – ولكن لا يمكنه العمل إلا من خلال المشاركة الصحيحة للبيانات
إذن كيف نطبق أخلاقيات الذكاء الاصطناعي في الطب لتقليل التحيز والاحتفاظ بالسيطرة على الخوارزميات؟ ينطبق مبدأ علوم الكمبيوتر “قمامة في ، قمامة خارج” على الذكاء الاصطناعي. لنفترض أننا نجمع بيانات متحيزة من عينات صغيرة. من المحتمل أن تكون خوارزميات الذكاء الاصطناعي الخاصة بنا متحيزة وغير قابلة للتكرار في بيئة سريرية أخرى.
ليس من الصعب العثور على أمثلة للتحيزات في نماذج الذكاء الاصطناعي المعاصرة. تُظهر نماذج اللغة الكبيرة الشائعة (ChatGPT على سبيل المثال) ونماذج الانتشار الكامنة (DALL-E والانتشار المستقر) كيف يمكن أن تحدث التحيزات الصريحة فيما يتعلق بالجنس والعرق والحالة الاجتماعية والاقتصادية.
وجد الباحثون أن مطالبات المستخدم البسيطة تولد صورًا تديم القوالب النمطية العرقية والجندرية والطبقية. على سبيل المثال ، يؤدي طلب توجيه إلى الطبيب إلى إنتاج صور لأطباء ذكور في الغالب ، وهو ما يتعارض مع الواقع ، حيث إن حوالي نصف الأطباء في دول منظمة التعاون الاقتصادي والتنمية هم من الإناث.
التنفيذ الآمن للذكاء الاصطناعي الطبي
إن الحل لمنع التحيز والتمييز ليس بالأمر الهين. من المحتمل أن يكون تمكين المساواة الصحية وتعزيز الشمولية في الدراسات السريرية من بين الحلول الأولية لمكافحة التحيزات في الذكاء الاصطناعي الطبي.
بشكل مشجع ، اقترحت إدارة الغذاء والدواء الأمريكية مؤخرًا جعل التنوع إلزاميًا في التجارب السريرية. يمثل هذا الاقتراح خطوة نحو دراسات سريرية أقل تحيزًا وقائمة على المجتمع.
هناك عقبة أخرى أمام التقدم وهي التمويل المحدود للبحوث. تتطلب خوارزميات الذكاء الاصطناعي عادةً كميات كبيرة من البيانات ، والتي قد تكون باهظة الثمن. من الأهمية بمكان إنشاء آليات تمويل محسّنة توفر للباحثين الموارد اللازمة لجمع البيانات ذات الصلة سريريًا والمناسبة لتطبيقات الذكاء الاصطناعي.
نجادل أيضًا أنه يجب علينا دائمًا معرفة الأعمال الداخلية لخوارزميات الذكاء الاصطناعي وفهم كيفية توصلهم إلى استنتاجاتهم وتوصياتهم. غالبًا ما يشار إلى هذا المفهوم باسم “القابلية للتفسير” في الذكاء الاصطناعي. إنه يتعلق بفكرة أن البشر والآلات يجب أن يعملوا معًا لتحقيق أفضل النتائج.
نحن نفضل أن ننظر إلى تنفيذ التنبؤ في النماذج على أنه ذكاء “معزز” بدلاً من ذكاء “اصطناعي” – يجب أن تكون الخوارزميات جزءًا من العملية ويجب أن تظل المهن الطبية مسيطرًا على اتخاذ القرار.
اقرأ المزيد: يمكن أن يكون الذكاء الاصطناعي المتحيز ضارًا بصحتك – وإليك كيفية تعزيز عدالة الخوارزميات
بالإضافة إلى التشجيع على استخدام الخوارزميات القابلة للتفسير ، فإننا ندعم العلم الشفاف والمفتوح. يجب على العلماء نشر تفاصيل نماذج الذكاء الاصطناعي ومنهجيتها لتعزيز الشفافية وإمكانية التكاثر.
ما الذي نحتاجه في Aotearoa New Zealand لضمان التنفيذ الآمن للذكاء الاصطناعي في الرعاية الطبية؟ المخاوف الأخلاقية للذكاء الاصطناعي يقودها في المقام الأول خبراء في هذا المجال. ومع ذلك ، تم اقتراح لوائح منظمة العفو الدولية المستهدفة ، مثل قانون الذكاء الاصطناعي الذي يتخذ من الاتحاد الأوروبي مقراً له ، لمعالجة هذه الاعتبارات الأخلاقية.
إن قانون الذكاء الاصطناعي الأوروبي مرحب به وسيحمي الأشخاص الذين يعملون ضمن “الذكاء الاصطناعي الآمن”. أصدرت حكومة المملكة المتحدة مؤخرًا نهجها الاستباقي لتنظيم الذكاء الاصطناعي ، ليكون بمثابة مخطط لاستجابات الحكومات الأخرى لسلامة الذكاء الاصطناعي.
في Aotearoa ، ندافع عن تبني موقف استباقي بدلاً من موقف تفاعلي لسلامة الذكاء الاصطناعي. سيؤسس إطارًا أخلاقيًا لاستخدام الذكاء الاصطناعي في الرعاية السريرية وغيرها من المجالات ، مما ينتج عنه ذكاء اصطناعي قابل للتفسير وآمن وغير متحيز. وبالتالي ، ستزداد ثقتنا بأن هذه التكنولوجيا القوية تفيد المجتمع مع حمايته من الأذى.
نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة