Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
مقالات عامة

كل من البشر والذكاء الاصطناعي يهلوسون – لكن ليس بالطريقة نفسها

مجلة المذنب نت متابعات عالمية:

أثار إطلاق نماذج اللغات الكبيرة (LLMs) مثل GPT-3.5 اهتمامًا كبيرًا خلال الأشهر الستة الماضية. ومع ذلك ، تضاءلت الثقة في هذه النماذج حيث اكتشف المستخدمون أن بإمكانهم ارتكاب أخطاء – وأنها ، مثلنا تمامًا ، ليست مثالية.

يقال إن LLM الذي ينتج معلومات غير صحيحة هو “هلوسة” ، وهناك الآن جهود بحثية متزايدة لتقليل هذا التأثير. ولكن بينما نكافح في هذه المهمة ، يجدر بنا التفكير في قدرتنا على التحيز والهلوسة – وكيف يؤثر ذلك على دقة LLM التي نخلقها.

من خلال فهم الرابط بين إمكانات الهلوسة للذكاء الاصطناعي وإمكانياتنا ، يمكننا البدء في إنشاء أنظمة ذكاء اصطناعي أكثر ذكاءً والتي ستساعد في النهاية على تقليل الخطأ البشري.

كيف يهلوس الناس

ليس سرا أن الناس يختلقون المعلومات. أحيانًا نفعل ذلك عن قصد ، وأحيانًا عن غير قصد. هذا الأخير هو نتيجة للتحيزات المعرفية ، أو “الاستدلال”: اختصارات عقلية نطورها من خلال التجارب السابقة.

غالبًا ما تولد هذه الاختصارات بدافع الضرورة. في أي لحظة ، يمكننا فقط معالجة كمية محدودة من المعلومات التي تغمر حواسنا ، ولا نتذكر سوى جزء بسيط من جميع المعلومات التي تعرضنا لها من قبل.

على هذا النحو ، يجب على أدمغتنا استخدام الجمعيات المكتسبة لملء الفجوات والاستجابة بسرعة لأي سؤال أو مأزق يواجهنا. بعبارة أخرى ، تخمن أدمغتنا ما قد تستند إليه الإجابة الصحيحة على معرفة محدودة. هذا يسمى “Confabulation” وهو مثال على التحيز البشري.

يمكن أن تؤدي تحيزاتنا إلى حكم سيء. خذ تحيز الأتمتة ، وهو ميلنا إلى تفضيل المعلومات التي تم إنشاؤها بواسطة أنظمة مؤتمتة (مثل ChatGPT) على المعلومات من مصادر غير آلية. يمكن أن يقودنا هذا التحيز إلى تفويت الأخطاء وحتى التصرف بناءً على معلومات خاطئة.

من الأساليب الأخرى ذات الصلة تأثير الهالة ، حيث يؤثر انطباعنا الأولي عن شيء ما على تفاعلاتنا اللاحقة معه. وتحيز الطلاقة ، الذي يصف كيف نفضل المعلومات المقدمة بطريقة سهلة القراءة.

خلاصة القول هي أن التفكير البشري غالبًا ما يتم تلوينه من خلال التحيزات والتشوهات المعرفية الخاصة به ، وهذه الميول “الهلوسة” تحدث إلى حد كبير خارج وعينا.

كيف يهلوس الذكاء الاصطناعي

في سياق LLM ، الهلوسة مختلفة. لا تحاول LLM الحفاظ على الموارد العقلية المحدودة لفهم العالم بكفاءة. يصف مصطلح “الهلوسة” في هذا السياق محاولة فاشلة للتنبؤ باستجابة مناسبة لمدخلات ما.

ومع ذلك ، لا يزال هناك بعض التشابه بين كيفية هلوسة البشر والـ LLM ، حيث تقوم LLM أيضًا بذلك “لملء الفجوات”.

تولد LLM استجابة من خلال التنبؤ بالكلمة التي من المرجح أن تظهر بعد ذلك في تسلسل ، بناءً على ما حدث من قبل ، وعلى الارتباطات التي تعلمها النظام من خلال التدريب.

مثل البشر ، تحاول LLM توقع الاستجابة الأكثر احتمالية. على عكس البشر ، يفعلون ذلك بدون فهم ماذا يقولون. هذه هي الطريقة التي يمكن أن ينتهي بها الأمر بإخراج الهراء.

لماذا تهلوس LLMs ، هناك مجموعة من العوامل. ويتم تدريب أحد أهمها على بيانات معيبة أو غير كافية. تشمل العوامل الأخرى كيف تمت برمجة النظام للتعلم من هذه البيانات ، وكيف يتم تعزيز هذه البرمجة من خلال مزيد من التدريب تحت إشراف البشر.



اقرأ المزيد: يقول جيفري هينتون ، رائد الذكاء الاصطناعي ، إن الذكاء الاصطناعي هو شكل جديد من أشكال الذكاء يختلف عن شكلنا. هل كنا نخطئ كل هذا الوقت؟


نعمل بشكل أفضل معًا

لذا ، إذا كان كل من البشر والـ LLM عرضة للهلوسة (وإن كان ذلك لأسباب مختلفة) ، فما أسهل إصلاحه؟

قد يبدو إصلاح بيانات التدريب والعمليات التي تقوم عليها LLM أسهل من إصلاح أنفسنا. لكن هذا فشل في مراعاة العوامل البشرية التي تؤثر على أنظمة الذكاء الاصطناعي (وهو مثال على تحيز بشري آخر يُعرف باسم خطأ الإسناد الأساسي).

الحقيقة هي أن إخفاقاتنا وإخفاقات تقنياتنا متشابكة بشكل لا ينفصم ، لذا فإن إصلاح أحدهما سيساعد في إصلاح الآخر. فيما يلي بعض الطرق التي يمكننا من خلالها القيام بذلك.

  • إدارة مسؤولة للبيانات. غالبًا ما تنبع التحيزات في الذكاء الاصطناعي من بيانات التدريب المتحيزة أو المحدودة. تشمل طرق معالجة ذلك ضمان أن تكون بيانات التدريب متنوعة وتمثيلية ، وبناء خوارزميات مدركة للتحيز ، ونشر تقنيات مثل موازنة البيانات لإزالة الأنماط المنحرفة أو التمييزية.

  • الشفافية والذكاء الاصطناعي القابل للتفسير. على الرغم من الإجراءات المذكورة أعلاه ، ومع ذلك ، يمكن أن تظل التحيزات في الذكاء الاصطناعي قائمة ويمكن أن يكون من الصعب اكتشافها. من خلال دراسة كيف يمكن للتحيزات أن تدخل نظامًا وتنتشر فيه ، يمكننا أن نفسر بشكل أفضل وجود التحيز في المخرجات. هذا هو أساس “الذكاء الاصطناعي القابل للتفسير” ، والذي يهدف إلى جعل عمليات صنع القرار في أنظمة الذكاء الاصطناعي أكثر شفافية.

  • وضع مصلحة الجمهور في المقدمة والمركز. يتطلب التعرف على التحيزات في الذكاء الاصطناعي وإدارتها والتعلم منها المساءلة البشرية ودمج القيم الإنسانية في أنظمة الذكاء الاصطناعي. يعني تحقيق ذلك ضمان تمثيل أصحاب المصلحة لأشخاص من خلفيات وثقافات ووجهات نظر متنوعة.

من خلال العمل معًا بهذه الطريقة ، يمكننا بناء أنظمة ذكاء اصطناعي أكثر ذكاءً يمكنها المساعدة في السيطرة على جميع الهلوسة لدينا.

على سبيل المثال ، يتم استخدام الذكاء الاصطناعي في الرعاية الصحية لتحليل القرارات البشرية. تكتشف أنظمة التعلم الآلي هذه التناقضات في البيانات البشرية وتوفر مطالبات تلفت انتباه الطبيب إليها. على هذا النحو ، يمكن تحسين قرارات التشخيص مع الحفاظ على المساءلة البشرية.

في سياق وسائل التواصل الاجتماعي ، يتم استخدام الذكاء الاصطناعي للمساعدة في تدريب الوسطاء البشريين عند محاولة التعرف على الإساءات ، مثل مشروع Troll Patrol الذي يهدف إلى معالجة العنف عبر الإنترنت ضد النساء.

في مثال آخر ، يمكن أن يساعد الجمع بين الذكاء الاصطناعي وصور الأقمار الصناعية الباحثين في تحليل الاختلافات في الإضاءة الليلية عبر المناطق ، واستخدام هذا كبديل للفقر النسبي للمنطقة (حيث يرتبط المزيد من الإضاءة بفقر أقل).

الأهم من ذلك ، بينما نقوم بالعمل الأساسي لتحسين دقة LLMs ، لا ينبغي أن نتجاهل كيف تجعل قابليتها للخطأ الحالية مرآة أمامنا.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى