هل يمكنك الوثوق بالذكاء الاصطناعي؟ إليك لماذا لا يجب عليك ذلك

مجلة المذنب نت متابعات عالمية:
إذا سألت Alexa ، نظام AI للمساعد الصوتي من Amazon ، ما إذا كانت Amazon احتكارًا ، فإنها تستجيب بالقول إنها لا تعرف. لا يتطلب الأمر الكثير لجعله يلجأ إلى عمالقة التكنولوجيا الآخرين ، لكنه صامت بشأن أفعال الشركة الأم.
عندما تستجيب Alexa بهذه الطريقة ، فمن الواضح أنها تضع اهتمامات مطوريها في مقدمة اهتماماتك. في العادة ، على الرغم من ذلك ، ليس من الواضح تمامًا من يخدم نظام الذكاء الاصطناعي. لتجنب التعرض للاستغلال من قبل هذه الأنظمة ، سيحتاج الناس إلى تعلم التعامل مع الذكاء الاصطناعي بشكل متشكك. هذا يعني البناء المتعمد للمدخلات التي تقدمها لها والتفكير بشكل نقدي حول ناتجها.
الأجيال الأحدث من نماذج الذكاء الاصطناعي ، مع استجاباتها الأكثر تعقيدًا والأقل حفظًا ، تجعل من الصعب معرفة من المستفيد عند التحدث. إن تلاعب شركات الإنترنت بما تراه لخدمة مصالحها ليس بالأمر الجديد. تمتلئ نتائج بحث Google وموجز Facebook الخاص بك بالإدخالات المدفوعة. يتلاعب Facebook و TikTok وغيرهما بخلاصاتك لزيادة الوقت الذي تقضيه على المنصة ، مما يعني المزيد من مشاهدات الإعلانات لرفاهيتك.
ما يميز أنظمة الذكاء الاصطناعي عن خدمات الإنترنت الأخرى هو مدى تفاعلها وكيف ستصبح هذه التفاعلات بشكل متزايد مثل العلاقات. لا يتطلب الأمر الكثير من الاستقراء من تقنيات اليوم لتصور أنظمة الذكاء الاصطناعي التي ستخطط لرحلاتك أو تتفاوض نيابة عنك أو تعمل كمعالجين ومدربين للحياة.
من المحتمل أن يكونوا معك على مدار الساعة طوال أيام الأسبوع ، ويعرفونك عن كثب ، ويكونون قادرين على توقع احتياجاتك. هذا النوع من واجهة المحادثة لشبكة واسعة من الخدمات والموارد على الويب ضمن قدرات أنظمة الذكاء الاصطناعي التوليدية الحالية مثل ChatGPT. إنهم على الطريق الصحيح ليصبحوا مساعدين رقميين مخصصين.
كخبير أمني وعالم بيانات ، نعتقد أن الأشخاص الذين يعتمدون على أنظمة الذكاء الاصطناعي هذه يجب أن يثقوا بها ضمنيًا للتنقل في الحياة اليومية. هذا يعني أنهم سيحتاجون إلى التأكد من أن أنظمة الذكاء الاصطناعي لا تعمل سراً مع شخص آخر. عبر الإنترنت ، تعمل الأجهزة والخدمات التي يبدو أنها تعمل من أجلك بشكل سري ضدك بالفعل. أجهزة التلفاز الذكية تتجسس عليك. تجمع تطبيقات الهاتف بياناتك وتبيعها. تتلاعب بك العديد من التطبيقات والمواقع الإلكترونية من خلال الأنماط المظلمة أو عناصر التصميم التي تضلل عمدًا أو تكره أو تخدع زوار الموقع. هذه هي رأسمالية المراقبة ، والذكاء الاصطناعي يتشكل ليكون جزءًا منها.
https://www.youtube.com/watch؟v=5AvtUrHxg8A
في الظلام
من المحتمل جدًا أن يكون الأمر أسوأ بكثير مع الذكاء الاصطناعي. لكي يكون هذا المساعد الرقمي للذكاء الاصطناعي مفيدًا حقًا ، يجب أن يعرفك حقًا. أفضل مما يعرفك هاتفك. أفضل مما يعرفك بحث Google. ربما يكون أفضل من أن يعرفك أصدقاؤك المقربون والشركاء الحميمون والمعالج.
ليس لديك سبب للثقة في أدوات الذكاء الاصطناعي التوليدية الرائدة اليوم. اترك جانباً الهلوسة ، “الحقائق” المصطنعة التي تنتجها GPT ونماذج اللغات الكبيرة الأخرى. نتوقع أن يتم تنظيفها إلى حد كبير مع تحسن التكنولوجيا خلال السنوات القليلة المقبلة.
لكنك لا تعرف كيف يتم تكوين أنظمة الذكاء الاصطناعي: كيف تم تدريبهم ، وما هي المعلومات التي تم إعطاؤها لهم ، وما هي التعليمات التي أُمروا باتباعها. على سبيل المثال ، كشف الباحثون عن القواعد السرية التي تحكم سلوك روبوت دردشة Microsoft Bing. إنها حميدة إلى حد كبير ولكنها يمكن أن تتغير في أي وقت.
كسب المال
يتم إنشاء العديد من أنظمة الذكاء الاصطناعي هذه وتدريبها على نفقات هائلة من قبل بعض أكبر الاحتكارات التقنية. يتم تقديمها للناس لاستخدامها مجانًا أو بتكلفة منخفضة جدًا. ستحتاج هذه الشركات إلى تسييلها بطريقة ما. وكما هو الحال مع بقية الإنترنت ، فمن المرجح أن يشمل ذلك بطريقة ما المراقبة والتلاعب.
تخيل أن تطلب من الشات بوت الخاص بك التخطيط لعطلتك القادمة. هل اختارت شركة طيران أو سلسلة فنادق أو مطعمًا معينًا لأنها كانت الأفضل بالنسبة لك أو لأن صانعها حصل على رشاوى من الشركات؟ كما هو الحال مع النتائج المدفوعة في بحث Google وإعلانات موجز الأخبار على Facebook والمواضع المدفوعة في استعلامات Amazon ، من المرجح أن تصبح هذه التأثيرات المدفوعة أكثر سرية بمرور الوقت.
إذا كنت تطلب chatbot الخاص بك للحصول على معلومات سياسية ، فهل النتائج مشوهة بسياسات الشركة التي تمتلك chatbot؟ أو المرشح الذي دفع لها أكبر قدر من المال؟ أو حتى آراء التركيبة السكانية للأشخاص الذين تم استخدام بياناتهم في تدريب النموذج؟ هل وكيل الذكاء الاصطناعي الخاص بك عميل مزدوج سرا؟ في الوقت الحالي ، لا توجد طريقة لمعرفة ذلك.
جدير بالثقة بموجب القانون
نعتقد أن الناس يجب أن يتوقعوا المزيد من التكنولوجيا وأن شركات التكنولوجيا والذكاء الاصطناعي يمكن أن تصبح أكثر جدارة بالثقة. يتخذ قانون الذكاء الاصطناعي المقترح من الاتحاد الأوروبي بعض الخطوات المهمة ، والتي تتطلب الشفافية حول البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي ، والتخفيف من التحيز المحتمل ، والكشف عن المخاطر المتوقعة ، والإبلاغ عن الاختبارات المعيارية للصناعة.
https://www.youtube.com/watch؟v=kcOQYj9zcqw
تفشل معظم أنظمة الذكاء الاصطناعي الحالية في الامتثال لهذا التفويض الأوروبي الناشئ ، وعلى الرغم من الحث الأخير من زعيم الأغلبية في مجلس الشيوخ تشاك شومر ، فإن الولايات المتحدة متخلفة كثيرًا في مثل هذا التنظيم.
يجب أن تكون أنظمة الذكاء الاصطناعي في المستقبل جديرة بالثقة. ما لم تقدم الحكومة حماية قوية للمستهلكين لمنتجات الذكاء الاصطناعي ، سيكون الناس بمفردهم لتخمين المخاطر والتحيزات المحتملة للذكاء الاصطناعي ، والتخفيف من أسوأ آثارها على تجارب الناس معهم.
لذلك عندما تحصل على توصية سفر أو معلومات سياسية من إحدى أدوات الذكاء الاصطناعي ، تعامل معها بنفس النظرة المتشككة التي قد تستخدمها في إعلان لوحة إعلانية أو متطوع في الحملة. على الرغم من سحرها التكنولوجي ، قد تكون أداة الذكاء الاصطناعي أكثر بقليل من نفس الشيء.
نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة