يشرح أحد باحثي محرك البحث الوعد والمخاطر في السماح لـ ChatGPT وأبناء عمومته بالبحث في الويب عنك

مجلة المذنب نت متابعات عالمية:
كان النموذج البارز للوصول إلى المعلومات قبل أن تصبح محركات البحث هو القاعدة – أمناء المكتبات وخبراء الموضوع أو البحث الذين يقدمون المعلومات ذات الصلة – كان تفاعليًا وشخصيًا وشفافًا وموثوقًا. تعد محركات البحث هي الطريقة الأساسية التي يصل بها معظم الأشخاص إلى المعلومات اليوم ، ولكن إدخال بعض الكلمات الرئيسية والحصول على قائمة بالنتائج مرتبة حسب بعض الوظائف غير المعروفة ليس مثاليًا.
يعمل جيل جديد من أنظمة الوصول إلى المعلومات المستندة إلى الذكاء الاصطناعي ، والذي يتضمن Bing / ChatGPT من Microsoft و Google / Bard و Meta / LLaMA ، على تغيير وضع محرك البحث التقليدي لمدخلات البحث ومخرجاته. هذه الأنظمة قادرة على أخذ جمل كاملة وحتى فقرات كمدخلات وتوليد استجابات لغوية طبيعية مخصصة.
للوهلة الأولى ، قد يبدو هذا أفضل ما في العالمين: إجابات أنيقة ومخصصة جنبًا إلى جنب مع اتساع وعمق المعرفة على الإنترنت. لكن بصفتي باحثًا يدرس أنظمة البحث والتوصية ، أعتقد أن الصورة مختلطة في أحسن الأحوال.
أنظمة الذكاء الاصطناعي مثل ChatGPT و Bard مبنية على نماذج لغات كبيرة. نموذج اللغة هو أسلوب للتعلم الآلي يستخدم مجموعة كبيرة من النصوص المتاحة ، مثل Wikipedia و PubMed Articles ، لتعلم الأنماط. بعبارات بسيطة ، تحدد هذه النماذج الكلمة التي من المحتمل أن تأتي بعد ذلك ، في ضوء مجموعة من الكلمات أو العبارة. عند القيام بذلك ، يمكنهم إنشاء جمل وفقرات وحتى صفحات تتوافق مع استعلام من مستخدم. في 14 مارس 2023 ، أعلنت شركة OpenAI عن الجيل التالي من التكنولوجيا ، GPT-4 ، الذي يعمل مع إدخال النص والصورة ، وأعلنت Microsoft أن Bing للمحادثة يعتمد على GPT-4.
https://www.youtube.com/watch؟v=1wzPr4cUoMQ
بفضل التدريب على مجموعات كبيرة من النصوص والضبط الدقيق والأساليب الأخرى القائمة على التعلم الآلي ، يعمل هذا النوع من تقنية استرجاع المعلومات بشكل فعال للغاية. تقوم الأنظمة القائمة على نموذج اللغة الكبيرة بإنشاء استجابات مخصصة لتلبية استفسارات المعلومات. لقد وجد الأشخاص النتائج مبهرة للغاية لدرجة أن ChatGPT وصل إلى 100 مليون مستخدم في ثلث الوقت الذي استغرقه TikTok للوصول إلى هذا الإنجاز. لقد استخدمه الناس ليس فقط للعثور على إجابات ولكن لتوليد التشخيصات ووضع خطط الحمية وتقديم توصيات الاستثمار.
الغموض و “الهلوسة”
ومع ذلك ، هناك الكثير من الجوانب السلبية. أولاً ، ضع في اعتبارك ما هو في قلب نموذج لغوي كبير – آلية يربط من خلالها الكلمات ويفترض معانيها. ينتج عن هذا ناتج غالبًا ما يبدو وكأنه استجابة ذكية ، ولكن من المعروف أن أنظمة نماذج اللغة الكبيرة تنتج عبارات متكررة تقريبًا دون فهم حقيقي. لذلك ، في حين أن الناتج الناتج من مثل هذه الأنظمة قد يبدو ذكيًا ، إلا أنه مجرد انعكاس للأنماط الأساسية للكلمات التي وجدها الذكاء الاصطناعي في سياق مناسب.
هذا القيد يجعل أنظمة النماذج اللغوية الكبيرة عرضة لتكوين إجابات أو “هلوسة”. كما أن الأنظمة ليست ذكية بما يكفي لفهم الافتراض الخاطئ للسؤال والإجابة على الأسئلة الخاطئة على أي حال. على سبيل المثال ، عندما سئل عن وجه رئيس الولايات المتحدة الموجود على ورقة المائة دولار ، أجابت ChatGPT بنجامين فرانكلين دون أن تدرك أن فرانكلين لم يكن رئيسًا أبدًا وأن فرضية أن ورقة المائة دولار تحتوي على صورة رئيس أمريكي غير صحيحة.
المشكلة هي أنه حتى عندما تكون هذه الأنظمة خاطئة فقط 10٪ من الوقت ، فأنت لا تعرف أي 10٪. لا يمتلك الأشخاص أيضًا القدرة على التحقق من استجابات الأنظمة بسرعة. هذا لأن هذه الأنظمة تفتقر إلى الشفافية – فهي لا تكشف عن البيانات التي تم تدريبها عليها ، أو المصادر التي استخدموها للتوصل إلى إجابات أو كيفية إنشاء هذه الردود.
على سبيل المثال ، يمكنك أن تطلب من ChatGPT كتابة تقرير تقني مع الاستشهادات. لكنها غالبًا ما تصنع هذه الاستشهادات – “هلوسة” عناوين الأوراق العلمية وكذلك المؤلفين. لا تتحقق الأنظمة أيضًا من دقة ردودها. هذا يترك التحقق من الصحة للمستخدم ، وقد لا يكون لدى المستخدمين الدافع أو المهارات للقيام بذلك أو حتى إدراك الحاجة إلى التحقق من استجابات الذكاء الاصطناعي.
لقطة شاشة لجيراغ شاه
سرقة المحتوى – وحركة المرور
في حين أن الافتقار إلى الشفافية يمكن أن يكون ضارًا بالمستخدمين ، إلا أنه ليس من العدل أيضًا للمؤلفين والفنانين والمبدعين للمحتوى الأصلي الذين تعلمت الأنظمة منهم ، لأن الأنظمة لا تكشف عن مصادرها أو توفر إسنادًا كافيًا. في معظم الحالات ، لا يتم تعويض المبدعين أو منحهم الفضل أو منحهم الفرصة لإعطاء موافقتهم.
هناك زاوية اقتصادية لذلك أيضًا. في بيئة محرك بحث نموذجية ، يتم عرض النتائج مع روابط المصادر. هذا لا يسمح للمستخدم فقط بالتحقق من الإجابات ويوفر الإسناد إلى تلك المصادر ، بل إنه يولد أيضًا حركة مرور لتلك المواقع. تعتمد العديد من هذه المصادر على هذه الحركة لتحقيق أرباحها. نظرًا لأن أنظمة النماذج اللغوية الكبيرة تنتج إجابات مباشرة ولكن ليس المصادر التي استمدت منها ، أعتقد أن هذه المواقع من المحتمل أن تشهد تقلص تدفقات إيراداتها.
يسلب التعلم والصدفة
أخيرًا ، يمكن أن تؤدي هذه الطريقة الجديدة للوصول إلى المعلومات أيضًا إلى إضعاف الناس وتقليل فرصهم في التعلم. تتيح عملية البحث النموذجية للمستخدمين استكشاف مجموعة من الاحتمالات لاحتياجاتهم من المعلومات ، مما يدفعهم غالبًا إلى ضبط ما يبحثون عنه. كما يوفر لهم فرصة لمعرفة ما هو موجود وكيف تتصل أجزاء مختلفة من المعلومات لإنجاز مهامهم. ويسمح بالمصادفة أو الصدفة.
هذه جوانب مهمة جدًا للبحث ، ولكن عندما ينتج نظام ما النتائج دون إظهار مصادره أو توجيه المستخدم من خلال عملية ما ، فإنه يسلبهم هذه الاحتمالات.
تُعد النماذج اللغوية الكبيرة قفزة كبيرة إلى الأمام للوصول إلى المعلومات ، حيث توفر للأشخاص طريقة للحصول على تفاعلات قائمة على اللغة الطبيعية ، وإنتاج استجابات مخصصة واكتشاف الإجابات والأنماط التي يصعب على المستخدم العادي غالبًا التوصل إليها. لكن لديهم قيودًا شديدة بسبب الطريقة التي يتعلمون بها ويبنون الاستجابات. قد تكون إجاباتهم خاطئة أو سامة أو متحيزة.
في حين أن أنظمة الوصول إلى المعلومات الأخرى يمكن أن تعاني من هذه المشكلات أيضًا ، فإن أنظمة الذكاء الاصطناعي ذات النموذج اللغوي الكبير تفتقر أيضًا إلى الشفافية. والأسوأ من ذلك ، يمكن أن تساعد استجاباتهم اللغوية الطبيعية في تغذية شعور زائف بالثقة والسلطة يمكن أن يشكل خطورة على المستخدمين غير المطلعين.
نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة