مقالات عامة

قد يكون القضاء على التحيز في الذكاء الاصطناعي أمرًا مستحيلًا – يشرح عالم الكمبيوتر كيفية ترويضه بدلاً من ذلك

مجلة المذنب نت متابعات عالمية:

عندما طلبت من ChatGPT مزحة عن الصقليين في ذلك اليوم ، كان هذا يعني أن الصقليين كريهون الرائحة.

يمكن أن ينتج ChatGPT أحيانًا نواتج نمطية أو مسيئة.
لقطة شاشة بواسطة إميليو فيرارا، CC BY-ND

كشخص ولد ونشأ في صقلية ، كان رد فعل على نكتة ChatGPT باشمئزاز. لكن في الوقت نفسه ، بدأ دماغ عالم الكمبيوتر الخاص بي في الدوران حول سؤال يبدو بسيطًا: هل يجب السماح لـ ChatGPT وأنظمة الذكاء الاصطناعي الأخرى بأن تكون متحيزة؟

قد تقول “بالطبع لا!” وسيكون ذلك استجابة معقولة. لكن هناك بعض الباحثين ، مثلي ، يجادلون بالعكس: يجب أن تكون أنظمة الذكاء الاصطناعي مثل ChatGPT متحيزة بالفعل – ولكن ليس بالطريقة التي قد تفكر بها.

إن إزالة التحيز من الذكاء الاصطناعي هدف جدير بالثناء ، ولكن القضاء الأعمى على التحيزات يمكن أن يكون له عواقب غير مقصودة. بدلاً من ذلك ، يمكن التحكم في التحيز في الذكاء الاصطناعي لتحقيق هدف أعلى: العدالة.

كشف التحيز في الذكاء الاصطناعي

نظرًا لدمج الذكاء الاصطناعي بشكل متزايد في التكنولوجيا اليومية ، يتفق العديد من الأشخاص على أن معالجة التحيز في الذكاء الاصطناعي هي قضية مهمة. ولكن ماذا يعني “تحيز الذكاء الاصطناعي” في الواقع؟

يقول علماء الكمبيوتر إن نموذج الذكاء الاصطناعي يكون متحيزًا إذا أدى بشكل غير متوقع إلى نتائج منحرفة. قد تُظهر هذه النتائج تحيزًا ضد الأفراد أو الجماعات ، أو قد لا تتماشى مع القيم الإنسانية الإيجابية مثل الإنصاف والحقيقة. حتى الاختلافات الصغيرة عن السلوك المتوقع يمكن أن يكون لها “تأثير الفراشة” ، حيث يمكن تضخيم التحيزات الطفيفة على ما يبدو بواسطة الذكاء الاصطناعي التوليدي ويكون لها عواقب بعيدة المدى.

يمكن أن يأتي التحيز في أنظمة الذكاء الاصطناعي التوليدية من مجموعة متنوعة من المصادر. يمكن لبيانات التدريب الإشكالية ربط مهن معينة بجنس معين أو إدامة التحيزات العرقية. يمكن أن تكون خوارزميات التعلم نفسها متحيزة ومن ثم تضخيم التحيزات الموجودة في البيانات.

لكن الأنظمة يمكن أيضًا أن تكون منحازة حسب التصميم. على سبيل المثال ، قد تصمم الشركة نظام الذكاء الاصطناعي التوليدي الخاص بها لإعطاء الأولوية للكتابة الرسمية على الكتابة الإبداعية ، أو لخدمة الصناعات الحكومية على وجه التحديد ، وبالتالي تعزيز التحيزات القائمة عن غير قصد واستبعاد وجهات النظر المختلفة. يمكن أن تؤدي العوامل المجتمعية الأخرى ، مثل الافتقار إلى اللوائح أو الحوافز المالية غير المتوافقة ، إلى تحيزات الذكاء الاصطناعي.

تحديات إزالة التحيز

ليس من الواضح ما إذا كان يمكن – أو حتى ينبغي – القضاء تمامًا على التحيز من أنظمة الذكاء الاصطناعي.

تخيل أنك مهندس ذكاء اصطناعي ولاحظت أن نموذجك ينتج استجابة نمطية ، مثل أن الصقليين “كريه الرائحة”. قد تعتقد أن الحل هو إزالة بعض الأمثلة السيئة في بيانات التدريب ، وربما النكات حول رائحة الطعام الصقلي. حددت الأبحاث الحديثة كيفية إجراء هذا النوع من “جراحة الأعصاب بالذكاء الاصطناعي” للتخلص من الارتباطات بين مفاهيم معينة.

لكن هذه التغييرات حسنة النية يمكن أن يكون لها آثار غير متوقعة ، وربما سلبية. حتى الاختلافات الصغيرة في بيانات التدريب أو في تكوين نموذج الذكاء الاصطناعي يمكن أن تؤدي إلى نتائج مختلفة للنظام بشكل كبير ، ومن المستحيل التنبؤ بهذه التغييرات مسبقًا. أنت لا تعرف ما هي الارتباطات الأخرى التي تعلمها نظام الذكاء الاصطناعي لديك نتيجة “لإلغاء” التحيز الذي عالجته للتو.

محاولات أخرى لتخفيف التحيز تنطوي على مخاطر مماثلة. قد ينتج عن نظام الذكاء الاصطناعي المدرب على تجنب موضوعات حساسة معينة ردودًا غير كاملة أو مضللة. يمكن أن تؤدي اللوائح المضللة إلى تفاقم قضايا التحيز والأمان في الذكاء الاصطناعي ، بدلاً من تحسينها. يمكن للممثلين السيئين التهرب من الضمانات لانتزاع السلوكيات الخبيثة للذكاء الاصطناعي – مما يجعل عمليات التصيد الاحتيالي أكثر إقناعًا أو استخدام التزييف العميق للتلاعب بالانتخابات.

مع وضع هذه التحديات في الاعتبار ، يعمل الباحثون على تحسين تقنيات أخذ عينات البيانات والإنصاف الحسابي ، خاصة في الأماكن التي لا تتوفر فيها بيانات حساسة معينة. اختارت بعض الشركات ، مثل OpenAI ، أن يقوم العاملون البشريون بتعليق البيانات.

من ناحية أخرى ، يمكن لهذه الاستراتيجيات أن تساعد النموذج على التوافق بشكل أفضل مع القيم الإنسانية. ومع ذلك ، من خلال تنفيذ أي من هذه الأساليب ، يخاطر المطورون أيضًا بإدخال تحيزات ثقافية أو أيديولوجية أو سياسية جديدة.

السيطرة على التحيزات

هناك مفاضلة بين تقليل التحيز والتأكد من أن نظام الذكاء الاصطناعي لا يزال مفيدًا ودقيقًا. يعتقد بعض الباحثين ، بمن فيهم أنا ، أنه يجب السماح لأنظمة الذكاء الاصطناعي التوليدية أن تكون متحيزة – ولكن بطريقة محكومة بعناية.

على سبيل المثال ، قمت أنا والمتعاونين معي بتطوير تقنيات تتيح للمستخدمين تحديد مستوى التحيز الذي يجب أن يتحمله نظام الذكاء الاصطناعي. يمكن لهذا النموذج اكتشاف السمية في النص المكتوب من خلال حساب المعايير اللغوية داخل المجموعة أو الثقافية. في حين أن الأساليب التقليدية يمكن أن تحدد بشكل غير دقيق بعض المنشورات أو التعليقات المكتوبة باللغة الإنجليزية الأمريكية الإفريقية باعتبارها مسيئة ومن قبل مجتمعات LGBTQ + باعتبارها سامة ، فإن نموذج الذكاء الاصطناعي “القابل للتحكم” يوفر تصنيفًا أكثر عدلاً.

يُعد الذكاء الاصطناعي القابل للتحكم – والآمن – أمرًا مهمًا لضمان أن تنتج نماذج الذكاء الاصطناعي مخرجات تتماشى مع القيم الإنسانية ، مع السماح في الوقت نفسه بالفروق الدقيقة والمرونة.

نحو الإنصاف

حتى لو تمكن الباحثون من تحقيق الذكاء الاصطناعي التوليدي الخالي من التحيز ، فسيكون ذلك مجرد خطوة واحدة نحو الهدف الأوسع للعدالة. يتطلب السعي لتحقيق العدالة في الذكاء الاصطناعي التوليدي نهجًا شاملاً – ليس فقط معالجة أفضل للبيانات والتعليقات التوضيحية وخوارزميات إزالة الحواف ، ولكن أيضًا التعاون البشري بين المطورين والمستخدمين والمجتمعات المتأثرة.

مع استمرار انتشار تقنية الذكاء الاصطناعي ، من المهم أن نتذكر أن إزالة التحيز ليس إصلاحًا لمرة واحدة. بدلاً من ذلك ، إنها عملية مستمرة تتطلب مراقبة مستمرة وصقلًا وتكييفًا. على الرغم من أن المطورين قد لا يكونون قادرين على توقع تأثير الفراشة أو احتوائه بسهولة ، إلا أنه يمكنهم الاستمرار في توخي اليقظة والتفكير في نهجهم تجاه تحيز الذكاء الاصطناعي.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى