مقالات عامة

لفهم مشاكل الذكاء الاصطناعي ، انظر إلى الاختصارات التي تم اتخاذها لإنشائه

مجلة المذنب نت متابعات عالمية:

كتبت رائدة الحوسبة في القرن التاسع عشر أدا لوفلايس Ada Lovelace ، أن الآلة تستطيع فقط “القيام بكل ما نعرفه عن كيفية ترتيبها للأداء”. تم إصدار هذا البيان المطمئن فيما يتعلق بوصف تشارلز باباج لأول كمبيوتر ميكانيكي.

لم تكن ليدي لوفلايس تعلم أنه في عام 2016 ، برنامج يسمى AlphaGo ، مصمم للعب وتحسين في لعبة اللوحة “Go” ، لن يكون قادرًا على هزيمة جميع المبدعين فحسب ، بل سيفعل ذلك بطرق لا يستطيعون القيام بها يشرح.

في عام 2023 ، أخذ روبوت الدردشة ChatGPT بالذكاء الاصطناعي هذا إلى مستوى آخر ، وعقد محادثات بلغات متعددة ، وحل الألغاز وحتى اجتياز الاختبارات القانونية والطبية. أصبحت أجهزتنا الآن قادرة على القيام بأشياء لا نعرفها نحن ، صانعوها ، “كيف نطلبها للقيام بها”.

وقد أثار هذا كل من الإثارة والقلق بشأن إمكانات هذه التكنولوجيا. يأتي قلقنا من عدم معرفة ما يمكن توقعه من هذه الآلات الجديدة ، سواء من حيث سلوكها المباشر أو تطورها في المستقبل.

يمكننا أن نفهمها ، والمخاطر ، إذا اعتبرنا أن كل نجاحاتها ، ومعظم مشاكلها ، تأتي مباشرة من الوصفة الخاصة التي نتبعها لإنشائها.

السبب الذي يجعل الآلات قادرة الآن على القيام بأشياء لا نفهمها نحن ، صانعوها تمامًا ، هو أنها أصبحت قادرة على التعلم من التجربة. أصبح AlphaGo جيدًا جدًا من خلال لعب المزيد من ألعاب Go أكثر مما يمكن للإنسان أن يتناسب معه مدى الحياة. وبالمثل ، لا يمكن لأي إنسان قراءة العديد من الكتب التي استوعبها موقع ChatGPT.

تقليل القلق

من المهم أن نفهم أن الآلات أصبحت ذكية دون التفكير بطريقة بشرية. هذا الإدراك وحده يمكن أن يقلل بشكل كبير من الارتباك ، وبالتالي القلق.

الذكاء ليس قدرة بشرية حصرية ، كما سيخبرك أي عالم أحياء ، وعلامتنا التجارية المحددة لها ليست ذروتها ولا وجهتها. قد يكون من الصعب قبولها بالنسبة للبعض ، لكن الذكاء له علاقة بالدجاج الذي يعبر الطريق بأمان أكثر مما يتعلق بكتابة الشعر.

بعبارة أخرى ، لا ينبغي بالضرورة أن نتوقع أن يتطور ذكاء الآلة نحو شكل من أشكال الوعي. الذكاء هو القدرة على فعل الشيء الصحيح في المواقف غير المألوفة ، ويمكن العثور على ذلك في الأجهزة ، على سبيل المثال تلك التي توصي بكتاب جديد للمستخدم.

إذا أردنا فهم كيفية التعامل مع الذكاء الاصطناعي ، فيمكننا العودة إلى الأزمة التي ضربت الصناعة منذ أواخر الثمانينيات ، عندما كان العديد من الباحثين لا يزالون يحاولون تقليد ما اعتقدنا أن البشر يفعلونه. على سبيل المثال ، كانوا يحاولون فهم قواعد اللغة أو التفكير البشري ، لبرمجتها في آلات.

لم ينجح ذلك ، لذا انتهى بهم الأمر إلى اتخاذ بعض الاختصارات. قد تكون هذه الخطوة واحدة من أكثر القرارات ذات الأهمية في تاريخنا.

شوكة في الطريق

كان الاختصار الأول هو الاعتماد على اتخاذ القرارات بناءً على الأنماط الإحصائية الموجودة في البيانات. أدى هذا إلى إزالة الحاجة إلى فهم الظواهر المعقدة التي أردنا أن تحاكيها الآلات ، مثل اللغة. يمكن لميزة الإكمال التلقائي في تطبيق المراسلة تخمين الكلمة التالية دون فهم أهدافك.

بينما كان لدى الآخرين أفكار مماثلة من قبل ، كان أول من جعل هذه الطريقة تعمل حقًا ، وتمسك به ، ربما كان فريدريك جيلينك من شركة IBM ، الذي اخترع “نماذج اللغة الإحصائية” ، أسلاف جميع GPT ، أثناء العمل على الترجمة الآلية.

في أوائل التسعينيات ، لخص هذا الاختصار الأول بالسخرية: “عندما أقوم بطرد لغوي ، يرتفع أداء أنظمتنا. على الرغم من أن التعليق قد قيل على سبيل المزاح ، إلا أنه يعكس تحولًا في العالم الحقيقي في تركيز الذكاء الاصطناعي بعيدًا عن محاولات محاكاة قواعد اللغة.

انتشر هذا النهج بسرعة إلى مجالات أخرى ، مقدمًا مشكلة جديدة: الحصول على البيانات اللازمة لتدريب الخوارزميات الإحصائية.

كان إنشاء البيانات خصيصًا لمهام التدريب مكلفًا. أصبح الاختصار الثاني ضروريًا: يمكن حصاد البيانات من الويب بدلاً من ذلك.

فيما يتعلق بمعرفة نية المستخدمين ، كما هو الحال في أنظمة توصية المحتوى ، تم العثور على اختصار ثالث: لمراقبة سلوك المستخدمين باستمرار واستنتاج ما قد ينقرون عليه.

بنهاية هذه العملية ، تم تغيير الذكاء الاصطناعي وولدت وصفة جديدة. اليوم ، توجد هذه الطريقة في جميع أدوات الترجمة والتوصيات والإجابة على الأسئلة عبر الإنترنت.

وقود للتشغيل

مع كل نجاحها ، تخلق هذه الوصفة أيضًا مشاكل. كيف يمكننا التأكد من أن القرارات المهمة يتم اتخاذها بشكل عادل ، في حين أننا لا نستطيع فحص العمل الداخلي للآلة؟

كيف يمكننا منع الآلات من تكديس بياناتنا الشخصية ، في حين أن هذا هو الوقود الذي يجعلها تعمل؟ كيف يُتوقع من جهاز أن يوقف المحتوى الضار من الوصول إلى المستخدمين ، في حين أنه مصمم لمعرفة ما الذي يجعل الأشخاص ينقرون؟

لا يساعد في نشر كل هذا في موقع مؤثر للغاية في قلب بنيتنا التحتية الرقمية ، وفوضنا العديد من القرارات المهمة للذكاء الاصطناعي.

على سبيل المثال ، الخوارزميات ، بدلاً من صانعي القرار البشريين ، تملي ما نعرضه على وسائل التواصل الاجتماعي في الوقت الفعلي. في عام 2022 ، ألقى الطبيب الشرعي الذي حكم بوفاة مولي راسل البالغة من العمر 14 عامًا باللوم جزئيًا على خوارزمية لإظهار مواد ضارة للطفل دون أن يُطلب منه ذلك.

نظرًا لأن هذه المخاوف مستمدة من نفس الاختصارات التي جعلت التكنولوجيا ممكنة ، فسيكون من الصعب العثور على حلول جيدة. وهذا هو السبب أيضًا في أن القرارات الأولية لسلطة الخصوصية الإيطالية لحظر ChatGPT خلقت إنذارًا.

في البداية ، أثارت السلطة قضايا البيانات الشخصية التي يتم جمعها من الويب دون أساس قانوني ، والمعلومات التي يوفرها روبوت المحادثة التي تحتوي على أخطاء. كان من الممكن أن يمثل هذا تحديًا خطيرًا للنهج بأكمله ، وقد تكون حقيقة أنه تم حلها عن طريق إضافة إخلاء المسؤولية القانونية ، أو تغيير الشروط والأحكام ، بمثابة معاينة للصراعات التنظيمية المستقبلية.

نحن بحاجة إلى قوانين جيدة ، لا حكم عليها. لقد تغير نموذج الذكاء الاصطناعي منذ فترة طويلة ، لكن لم يتبعه تحول مماثل في تشريعاتنا وثقافتنا. لقد حان الوقت الآن.

بدأت محادثة مهمة حول ما يجب أن نريده من الذكاء الاصطناعي ، وسيتطلب ذلك مشاركة أنواع مختلفة من العلماء. نأمل أن يعتمد على الواقع التقني لما بنيناه ، ولماذا ، بدلاً من تخيلات الخيال العلمي أو سيناريوهات يوم القيامة.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى