مقالات عامة

لا يستطيع ChatGPT التفكير – فالوعي شيء مختلف تمامًا عن الذكاء الاصطناعي اليوم

مجلة المذنب نت متابعات عالمية:

كانت هناك صدمة في جميع أنحاء العالم من المعدل السريع للتقدم مع ChatGPT والذكاء الاصطناعي الآخر الذي تم إنشاؤه باستخدام ما يُعرف باسم نماذج اللغات الكبيرة (LLMs). يمكن أن تنتج هذه الأنظمة نصًا يبدو أنه يعرض الفكر والفهم وحتى الإبداع.

لكن هل يمكن لهذه الأنظمة حقًا أن تفكر وتفهم؟ هذا ليس سؤالًا يمكن الإجابة عليه من خلال التقدم التكنولوجي ، لكن التحليل والحجة الفلسفية الدقيقة يخبرنا أن الإجابة هي لا. وبدون العمل من خلال هذه القضايا الفلسفية ، لن نفهم تمامًا مخاطر وفوائد ثورة الذكاء الاصطناعي.

في عام 1950 ، نشر والد الحوسبة الحديثة ، آلان تورينج ، ورقة بحثية حددت طريقة لتحديد ما إذا كان الكمبيوتر يفكر أم لا. هذا يسمى الآن “اختبار تورينج”. تخيل تورينج إنسانًا يشارك في محادثة مع اثنين من المحاورين مخفيين عن الأنظار: أحدهما إنسان الآخر والآخر جهاز كمبيوتر. اللعبة هي العمل على أيهما.

إذا تمكن الكمبيوتر من خداع 70٪ من الحكام في محادثة مدتها خمس دقائق ليعتقدوا أنه شخص ، فإن الكمبيوتر يجتاز الاختبار. هل سيظهر اجتياز اختبار تورينج – وهو أمر يبدو الآن وشيكًا – أن الذكاء الاصطناعي قد حقق الفكر والفهم؟

تحدي الشطرنج

رفض تورينج هذا السؤال باعتباره غامضًا بشكل ميؤوس منه ، واستبدله بتعريف براغماتي لـ “الفكر” ، حيث يعني التفكير فقط اجتياز الاختبار.

كان تورينج مخطئًا ، مع ذلك ، عندما قال إن المفهوم الواضح الوحيد “للفهم” هو المفهوم السلوكي البحت لاجتياز اختباره. على الرغم من أن طريقة التفكير هذه تهيمن الآن على العلوم المعرفية ، إلا أن هناك أيضًا مفهومًا يوميًا واضحًا لـ “الفهم” مرتبط بالوعي. أن نفهم بهذا المعنى هو أن تدرك بوعي بعض الحقيقة عن الواقع.

في عام 1997 ، تغلب Deep Blue AI على خبير الشطرنج غاري كاسباروف. بناءً على مفهوم سلوكي بحت للفهم ، كان لدى ديب بلو معرفة بإستراتيجية الشطرنج التي تفوق أي إنسان. لكنها لم تكن واعية: لم يكن لديها أي مشاعر أو تجارب.

يفهم البشر بوعي قواعد الشطرنج والأساس المنطقي للاستراتيجية. في المقابل ، كان ديب بلو آلية غير حسنة تم تدريبها على الأداء الجيد في اللعبة. وبالمثل ، فإن ChatGPT هي آلية عديمة الشعور تم تدريبها على كميات هائلة من البيانات من صنع الإنسان لإنشاء محتوى يبدو أنه كتبه شخص ما.

إنه لا يفهم بوعي معنى الكلمات التي يبصقها. إذا كانت “الفكر” تعني فعل التفكير الواعي ، فإن ChatGPT ليس لديه أي أفكار حول أي شيء.

حان وقت السداد

كيف يمكنني التأكد من أن ChatGPT ليس واعيًا؟ في تسعينيات القرن الماضي ، قدم عالم الأعصاب كريستوف كوخ ، الفيلسوف ديفيد تشالمرز ، حالة من النبيذ الفاخر كان العلماء سيحددون “الارتباطات العصبية للوعي” بالكامل خلال 25 عامًا.

من خلال هذا ، كان يعني أنهم كانوا سيحددون أشكال نشاط الدماغ الضرورية والكافية للتجربة الواعية. لقد حان الوقت لدفع Koch ، حيث لا يوجد إجماع على أن هذا قد حدث.

هذا لأن الوعي لا يمكن ملاحظته من خلال النظر داخل رأسك. في محاولاتهم لإيجاد صلة بين نشاط الدماغ والخبرة ، يجب على علماء الأعصاب الاعتماد على شهادة الأشخاص ، أو على العلامات الخارجية للوعي. لكن هناك طرقًا متعددة لتفسير البيانات.

على عكس أجهزة الكمبيوتر ، يفهم البشر بوعي قواعد لعبة الشطرنج والاستراتيجية الأساسية.
استوديوهات LightField / Shutterstock

يعتقد بعض العلماء أن هناك علاقة وثيقة بين الوعي والإدراك الانعكاسي – قدرة الدماغ على الوصول إلى المعلومات واستخدامها لاتخاذ القرارات. هذا يقودهم إلى الاعتقاد بأن قشرة الفص الجبهي في الدماغ – حيث تحدث العمليات عالية المستوى لاكتساب المعرفة – تشارك بشكل أساسي في جميع التجارب الواعية. ينكر آخرون ذلك ، بحجة أنه يحدث في أي منطقة دماغية محلية تحدث فيها المعالجة الحسية ذات الصلة.

يتمتع العلماء بفهم جيد لكيمياء الدماغ الأساسية. لقد أحرزنا أيضًا تقدمًا في فهم الوظائف عالية المستوى لأجزاء مختلفة من الدماغ. لكننا جاهلون تقريبًا بشأن الجزء المتبادل: كيف يتم تحقيق الأداء العالي المستوى للدماغ على المستوى الخلوي.

يشعر الناس بالحماس الشديد بشأن إمكانات المسح للكشف عن عمل الدماغ. لكن التصوير بالرنين المغناطيسي الوظيفي (fMRI) له دقة منخفضة للغاية: كل بكسل في مسح الدماغ يتوافق مع 5.5 مليون خلية عصبية ، مما يعني أن هناك حدًا لمقدار التفاصيل التي يمكن أن تظهرها هذه الفحوصات.

أعتقد أن التقدم في الوعي سيحدث عندما نفهم بشكل أفضل كيف يعمل الدماغ.

وقفة في التنمية

كما أجادل في كتابي القادم “لماذا؟ الغرض من الكون “، يجب أن يكون الوعي قد تطور لأنه أحدث اختلافًا في السلوك. يجب أن تتصرف الأنظمة ذات الوعي بشكل مختلف ، وبالتالي تعيش بشكل أفضل ، من الأنظمة التي لا تمتلك وعيًا.

إذا تم تحديد كل السلوك من خلال الكيمياء والفيزياء الأساسية ، فلن يكون للانتخاب الطبيعي دافع لجعل الكائنات الحية واعية ؛ كنا قد تطورنا كآليات بقاء عديمة الإحساس.

أراهن ، إذن ، أنه كلما تعلمنا المزيد عن الأعمال التفصيلية للدماغ ، سنحدد بدقة مناطق الدماغ التي تجسد الوعي. هذا لأن هذه المناطق ستظهر سلوكًا لا يمكن تفسيره بالكيمياء والفيزياء المعروفة حاليًا. يبحث بعض علماء الأعصاب بالفعل عن تفسيرات جديدة محتملة للوعي لتكملة المعادلات الأساسية للفيزياء.

في حين أن معالجة LLMs أصبحت الآن معقدة للغاية بالنسبة لنا لفهمها تمامًا ، فإننا نعلم أنه يمكن التنبؤ بها من حيث المبدأ من الفيزياء المعروفة. على هذا الأساس ، يمكننا أن نؤكد بثقة أن ChatGPT ليس واعيًا.

هناك العديد من المخاطر التي يشكلها الذكاء الاصطناعي ، وأنا أؤيد تمامًا الدعوة الأخيرة لعشرات الآلاف من الأشخاص ، بما في ذلك قادة التكنولوجيا ستيف وزنياك وإيلون ماسك ، لإيقاف التطوير مؤقتًا لمعالجة مخاوف السلامة. احتمالية الاحتيال ، على سبيل المثال ، هائلة. ومع ذلك ، فإن الحجة القائلة بأن أحفاد أنظمة الذكاء الاصطناعي الحالية على المدى القريب سيكونون أذكياء للغاية ، وبالتالي يمثلون تهديدًا كبيرًا للبشرية ، سابق لأوانه.

هذا لا يعني أن أنظمة الذكاء الاصطناعي الحالية ليست خطيرة. لكن لا يمكننا تقييم التهديد بشكل صحيح ما لم نصنفه بدقة. LLMs ليست ذكية. إنها أنظمة مدربة لإعطاء المظهر الخارجي للذكاء البشري. مخيف ، لكنه ليس مخيفًا.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى