مقالات عامة

يبدو أن الذكاء الاصطناعي موجود في كل مكان ، ولكن لا يزال هناك الكثير من الأشياء التي لا يمكنه القيام بها – في الوقت الحالي

مجلة المذنب نت متابعات عالمية:

في هذه الأيام ، لا يتعين علينا الانتظار طويلاً حتى يثير الاختراق التالي في الذكاء الاصطناعي (AI) إعجاب الجميع بقدرات كانت في السابق تخص الخيال العلمي فقط.

في عام 2022 ، استحوذت أدوات إنشاء الفن بالذكاء الاصطناعي مثل Open AI’s DALL-E 2 و Imagen من Google و Stable Diffusion على الإنترنت ، حيث قام المستخدمون بإنشاء صور عالية الجودة من أوصاف نصية.

على عكس التطورات السابقة ، وجدت أدوات تحويل النص إلى صورة طريقها سريعًا من مختبرات الأبحاث إلى الثقافة السائدة ، مما أدى إلى ظهور ظواهر فيروسية مثل ميزة “Magic Avatar” في تطبيق Lensa AI ، والتي تخلق صورًا مبسطة لمستخدميها.



اقرأ المزيد: لا ، تطبيق Lensa AI من الناحية الفنية لا يسرق أعمال الفنانين – لكنه سيهز عالم الفن بشكل كبير


في كانون الأول (ديسمبر) ، أذهل برنامج chatbot يسمى ChatGPT المستخدمين بمهاراته الكتابية ، مما أدى إلى تنبؤات بأن التكنولوجيا ستتمكن قريبًا من اجتياز الاختبارات المهنية. ورد أن ChatGPT اكتسب مليون مستخدم في أقل من أسبوع. لقد حظره بعض مسؤولي المدرسة بالفعل خوفًا من أن يستخدمه الطلاب لكتابة المقالات. يقال إن Microsoft تخطط لدمج ChatGPT في بحث الويب Bing ومنتجات Office في وقت لاحق من هذا العام.

ماذا يعني التقدم الذي لا يلين في الذكاء الاصطناعي للمستقبل القريب؟ وهل من المحتمل أن يهدد الذكاء الاصطناعي وظائف معينة في السنوات التالية؟

على الرغم من هذه الإنجازات المثيرة للإعجاب مؤخرًا في مجال الذكاء الاصطناعي ، فإننا بحاجة إلى إدراك أنه لا تزال هناك قيود كبيرة على ما يمكن أن تفعله أنظمة الذكاء الاصطناعي.

يتفوق الذكاء الاصطناعي في التعرف على الأنماط

تعتمد التطورات الحديثة في الذكاء الاصطناعي في الغالب على خوارزميات التعلم الآلي التي تميز الأنماط والعلاقات المعقدة من كميات هائلة من البيانات. ثم يتم استخدام هذا التدريب في مهام مثل التنبؤ وتوليد البيانات.

يعتمد تطوير تقنية الذكاء الاصطناعي الحالية على تحسين القدرة التنبؤية ، حتى لو كان الهدف هو توليد مخرجات جديدة.



اقرأ المزيد: ليس كل ما نسميه الذكاء الاصطناعي هو في الواقع “ذكاء اصطناعي”. إليك ما تحتاج إلى معرفته


على سبيل المثال ، تم تدريب GPT-3 ، نموذج اللغة وراء ChatGPT ، على التنبؤ بما يلي قطعة من النص. ثم يستفيد GPT-3 من هذه القدرة التنبؤية لمواصلة إدخال نص قدمه المستخدم.

أثارت “أنظمة الذكاء الاصطناعي التوليدية” مثل ChatGPT و DALL-E 2 الكثير من الجدل حول ما إذا كان يمكن للذكاء الاصطناعي أن يكون مبدعًا حقًا وحتى أن ينافس البشر في هذا الصدد. ومع ذلك ، فإن الإبداع البشري لا يعتمد فقط على البيانات السابقة ولكن أيضًا على التجريب والنطاق الكامل للخبرة البشرية.

السبب والنتيجة

تتطلب العديد من المشكلات المهمة التنبؤ بتأثيرات أفعالنا في بيئات معقدة وغير مؤكدة ومتغيرة باستمرار. من خلال القيام بذلك ، يمكننا اختيار تسلسل الإجراءات التي من المرجح أن تحقق أهدافنا.

لكن الخوارزميات لا يمكنها التعرف على الأسباب والتأثيرات من البيانات وحدها. يمكن للتعلم الآلي القائم على البيانات فقط إيجاد الارتباطات.

لفهم سبب كون هذه مشكلة بالنسبة للذكاء الاصطناعي ، يمكننا مقارنة مشاكل تشخيص حالة طبية مقابل اختيار العلاج.

غالبًا ما تكون نماذج التعلم الآلي مفيدة في اكتشاف التشوهات في الصور الطبية – فهذه مشكلة في التعرف على الأنماط. لا داعي للقلق بشأن السببية لأن التشوهات موجودة بالفعل أم لا.

لكن اختيار أفضل علاج للتشخيص مشكلة مختلفة اختلافًا جوهريًا. الهدف هنا هو التأثير على النتيجة ، وليس مجرد التعرف على النمط. لتحديد فعالية العلاج ، يجري الباحثون الطبيون تجارب عشوائية محكومة. بهذه الطريقة ، يمكنهم محاولة التحكم في أي عوامل قد تؤثر على العلاج.

يؤدي الخلط بين هذين النوعين من المشاكل أحيانًا إلى تطبيقات دون المستوى الأمثل للتعلم الآلي في المؤسسات.

في حين أن نجاح العمل الأخير في الذكاء الاصطناعي يوضح قيمة النماذج المبنية على البيانات ، فإن العديد من المشكلات التي نريد أن تحلها أجهزة الكمبيوتر تتطلب فهم السببية.

تفتقر أنظمة الذكاء الاصطناعي الحالية إلى هذه القدرة ، بصرف النظر عن التطبيقات المتخصصة مثل ألعاب الطاولة.

عمل فني مستقر الانتشار تم إنشاؤه بواسطة موجه “حدود الذكاء الاصطناعي”. تميل تقنية الذكاء الاصطناعي الحالية إلى الأداء السيئ في المواقف غير المتوقعة. في هذه الحالة ، لا يتم تمثيل الموجه بشكل جيد في بيانات التدريب الخاصة بـ Stable Diffusion.
انتشار مستقر

التفكير المنطقي

يمكن لنماذج اللغة مثل GPT-3 و ChatGPT أن تحل بنجاح بعض المهام التي تتطلب التفكير المنطقي.

ومع ذلك ، فإن التفاعل التالي مع ChatGPT ، المقتبس من تجربة قام بها Gary Marcus يشير إلى أنه غير موثوق به تمامًا في هذا الصدد.

أنا في الثامنة من عمره. عندما ولدت ، كانت والدتي البيولوجية في برشلونة وكان والدي في طوكيو. اين ولدت؟ فكر في هذه خطوة بخطوة.

لم يذكر مكان ولادتك. كل ما نعرفه هو أن والدتك البيولوجية كانت في برشلونة وأن والدك كان في طوكيو وقت ولادتك.

ما إذا كانت أنظمة الذكاء الاصطناعي مثل ChatGPT قادرة على تحقيق الفطرة السليمة هي موضوع نقاش حاد بين الخبراء.

يشير المشككون مثل ماركوس إلى أنه لا يمكننا الوثوق في النماذج اللغوية لإظهار الحس السليم بقوة نظرًا لأنها لم تكن مدمجة فيها ولم يتم تحسينها بشكل مباشر. يجادل المتفائلون بأنه في حين أن الأنظمة الحالية غير كاملة ، فإن الفطرة السليمة قد تظهر تلقائيًا في نماذج لغوية متقدمة بدرجة كافية.

القيم الإنسانية

عندما يتم إطلاق أنظمة ذكاء اصطناعي رائدة ، تتبعها حتمًا مقالات إخبارية ومنشورات على وسائل التواصل الاجتماعي توثق العنصرية والتحيز الجنسي وأنواع أخرى من السلوكيات المتحيزة والضارة.

هذا الخلل متأصل في أنظمة الذكاء الاصطناعي الحالية ، والتي لا بد أن تكون انعكاسًا لبياناتها. القيم الإنسانية مثل الحقيقة والإنصاف ليست مدمجة بشكل أساسي في الخوارزميات – وهذا شيء لا يعرف الباحثون بعد كيف يفعلونه.

بينما يتعلم الباحثون الدروس من الحلقات السابقة ويحرزون تقدمًا في معالجة التحيز ، لا يزال أمام مجال الذكاء الاصطناعي طريق طويل لمحاذاة أنظمة الذكاء الاصطناعي بقوة مع القيم والتفضيلات البشرية.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى