مقالات عامة

حماية المستهلك هي البداية الأولى لتنظيم الذكاء الاصطناعي في الولايات المتحدة

مجلة المذنب نت متابعات عالمية:

أطلقت لجنة التجارة الفيدرالية تحقيقًا مع شركة OpenAI الخاصة بصانع ChatGPT لانتهاكات محتملة لقوانين حماية المستهلك. أرسلت لجنة التجارة الفيدرالية طلبًا من 20 صفحة إلى الشركة للحصول على معلومات في الأسبوع الذي يبدأ في 10 يوليو 2023. وتأتي هذه الخطوة في الوقت الذي بدأ فيه المنظمون الأوروبيون في اتخاذ إجراءات ، ويعمل الكونجرس على تشريع لتنظيم صناعة الذكاء الاصطناعي.

طلبت لجنة التجارة الفيدرالية من شركة OpenAI تقديم تفاصيل عن جميع الشكاوى التي تلقتها الشركة من المستخدمين فيما يتعلق ببيانات “كاذبة أو مضللة أو مهينة أو ضارة” صادرة عن شركة OpenAI ، وما إذا كانت شركة OpenAI قد انخرطت في ممارسات غير عادلة أو خادعة تتعلق بمخاطر إلحاق الأذى بالمستهلكين ، بما في ذلك الإضرار بالسمعة. طرحت الوكالة أسئلة مفصلة حول كيفية حصول OpenAI على بياناتها ، وكيف تدرب نماذجها ، والعمليات التي تستخدمها للتعليقات البشرية ، وتقييم المخاطر والتخفيف من حدتها ، وآلياتها لحماية الخصوصية.

بصفتي باحثًا في وسائل التواصل الاجتماعي والذكاء الاصطناعي ، أدركت الإمكانات التحويلية الهائلة لنماذج الذكاء الاصطناعي التوليدية ، لكنني أعتقد أن هذه الأنظمة تشكل مخاطر. على وجه الخصوص ، في سياق حماية المستهلك ، يمكن أن تتسبب هذه النماذج في حدوث أخطاء وإظهار التحيزات وانتهاك خصوصية البيانات الشخصية.

القوة الخفية

في قلب روبوتات الدردشة مثل ChatGPT وأدوات إنشاء الصور مثل DALL-E تكمن قوة نماذج الذكاء الاصطناعي التوليدية التي يمكنها إنشاء محتوى واقعي من النصوص والصور ومدخلات الصوت والفيديو. يمكن الوصول إلى هذه الأدوات من خلال متصفح أو تطبيق هاتف ذكي.

نظرًا لأن نماذج الذكاء الاصطناعي هذه ليس لها استخدام محدد مسبقًا ، فيمكن ضبطها لمجموعة واسعة من التطبيقات في مجموعة متنوعة من المجالات التي تتراوح من التمويل إلى علم الأحياء. يمكن تكييف النماذج ، المدربة على كميات هائلة من البيانات ، لمهام مختلفة مع القليل من الترميز أو بدون تشفير وأحيانًا بنفس سهولة وصف مهمة بلغة بسيطة.

بالنظر إلى أن نماذج الذكاء الاصطناعي مثل GPT-3 و GPT-4 تم تطويرها من قبل مؤسسات خاصة باستخدام مجموعات بيانات مسجلة الملكية ، فإن الجمهور لا يعرف طبيعة البيانات المستخدمة لتدريبهم. إن عتامة بيانات التدريب وتعقيد بنية النموذج – تم تدريب GPT-3 على أكثر من 175 مليار متغير أو “معلمات” – تجعل من الصعب على أي شخص تدقيق هذه النماذج. وبالتالي ، من الصعب إثبات أن الطريقة التي يتم بناؤها بها أو تدريبها تسبب الضرر.

الهلوسة

في نماذج اللغة للذكاء الاصطناعي ، الهلوسة هي استجابة واثقة غير دقيقة ويبدو أنها غير مبررة ببيانات تدريب النموذج. حتى أن بعض نماذج الذكاء الاصطناعي التوليدية التي صُممت لتكون أقل عرضة للهلاوس قد ضاعفتها.

هناك خطر يتمثل في أن نماذج الذكاء الاصطناعي التوليفية يمكن أن تنتج معلومات غير صحيحة أو مضللة قد تؤدي في النهاية إلى إلحاق الضرر بالمستخدمين. وجدت دراسة تبحث في قدرة ChatGPT على إنشاء كتابة علمية صحيحة في المجال الطبي ، أن ChatGPT انتهى به الأمر إما إلى إنشاء استشهادات لأوراق غير موجودة أو الإبلاغ عن نتائج غير موجودة. وجدت أنا والمتعاونين معي أنماطًا مماثلة في تحقيقاتنا.

يمكن أن تسبب هذه الهلوسة ضررًا حقيقيًا عند استخدام النماذج دون إشراف كافٍ. على سبيل المثال ، زعم موقع ChatGPT خطأً أن أستاذًا ذكرته قد اتُهم بالتحرش الجنسي. ورفع مضيف إذاعي دعوى تشهير ضد شركة OpenAI بخصوص ChatGPT مدعيا كذبا وجود شكوى قانونية ضده بتهمة الاختلاس.

التحيز والتمييز

بدون ضمانات أو حماية كافية ، يمكن لنماذج الذكاء الاصطناعي التوليدية المدربة على كميات هائلة من البيانات التي تم جمعها من الإنترنت أن تؤدي في نهاية المطاف إلى تكرار التحيزات المجتمعية القائمة. على سبيل المثال ، يمكن للمنظمات التي تستخدم نماذج الذكاء الاصطناعي التوليدية لتصميم حملات التوظيف أن ينتهي بها الأمر بالتمييز عن غير قصد ضد بعض مجموعات الأشخاص.

عندما طلب أحد الصحفيين من DALL-E 2 إنشاء صور “لصحفي تقني يكتب مقالًا عن نظام ذكاء اصطناعي جديد يمكنه إنشاء صور رائعة وغريبة” ، لم ينتج عنه سوى صور للرجال. أظهر تطبيق بورتريه AI العديد من التحيزات الاجتماعية والثقافية ، على سبيل المثال عن طريق تفتيح لون بشرة الممثلة.

خصوصية البيانات

مصدر قلق رئيسي آخر ، لا سيما فيما يتعلق بتحقيق لجنة التجارة الفيدرالية ، هو خطر انتهاكات الخصوصية حيث قد ينتهي الأمر بالذكاء الاصطناعي بالكشف عن معلومات حساسة أو سرية. يمكن للمتسلل الوصول إلى معلومات حساسة حول الأشخاص الذين تم استخدام بياناتهم لتدريب نموذج الذكاء الاصطناعي.

حذر الباحثون من مخاطر التلاعب المسماة هجمات الحقن الفوري ، والتي يمكن أن تخدع الذكاء الاصطناعي التوليدي لإعطاء معلومات لا ينبغي لها. يمكن أن تخدع هجمات “الحقن الفوري غير المباشر” نماذج الذكاء الاصطناعي بخطوات مثل إرسال دعوة تقويم لشخص ما مع تعليمات لمساعدهم الرقمي لتصدير بيانات المستلم وإرسالها إلى المتسلل.

أدلى سام ألتمان ، الرئيس التنفيذي لشركة أوبن إيه آي ، بشهادته أمام اللجنة القضائية الفرعية التابعة لمجلس الشيوخ في 16 مايو 2023. قانون تنظيم الذكاء الاصطناعي قيد الإعداد ، لكن لجنة التجارة الفيدرالية تغلبت على الكونجرس.
AP Photo / باتريك سيمانسكي

بعض الحلول

نشرت المفوضية الأوروبية إرشادات أخلاقية للذكاء الاصطناعي الجدير بالثقة تتضمن قائمة مراجعة تقييم لستة جوانب مختلفة لأنظمة الذكاء الاصطناعي: الوكالة البشرية والرقابة ؛ المتانة الفنية والسلامة ؛ الخصوصية وإدارة البيانات ؛ الشفافية والتنوع وعدم التمييز والإنصاف ؛ الرفاه المجتمعي والبيئي ؛ والمساءلة.

يمكن أن يساعد التوثيق الأفضل لعمليات مطوري الذكاء الاصطناعي في تسليط الضوء على الأضرار المحتملة. على سبيل المثال ، اقترح باحثو الإنصاف الحسابي بطاقات نموذجية تشبه الملصقات الغذائية للطعام. عبارات البيانات وأوراق البيانات ، التي تميز مجموعات البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي ، ستؤدي دورًا مشابهًا.

قدمت Amazon Web Services ، على سبيل المثال ، بطاقات خدمة AI التي تصف استخدامات وقيود بعض النماذج التي توفرها. تصف البطاقات قدرات النماذج وبيانات التدريب والاستخدامات المقصودة.

يلمح استفسار لجنة التجارة الفيدرالية إلى أن هذا النوع من الإفصاح قد يكون اتجاهًا يتخذه المنظمون الأمريكيون. أيضًا ، إذا وجدت لجنة التجارة الفيدرالية أن OpenAI قد انتهكت قوانين حماية المستهلك ، فيمكنها فرض غرامة على الشركة أو وضعها بموجب مرسوم موافقة.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى