Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
مقالات عامة

لا يمكن أن يكذب ChatGPT عليك ، لكن لا يجب أن تثق به

مجلة المذنب نت متابعات عالمية:

“ChatGPT عبارة عن نظام أساسي لتوليد اللغة الطبيعية يعتمد على نموذج لغة OpenAI GPT-3.”

لماذا تصدق البيان أعلاه؟ الجواب البسيط هو أنك تثق في كاتب هذا المقال (أو ربما المحرر). لا يمكننا التحقق من كل ما قيل لنا ، لذلك نحن نثق بانتظام في شهادات الأصدقاء والغرباء و “الخبراء” والمؤسسات.

قد لا تكون الثقة في شخص ما دائمًا السبب الرئيسي للاعتقاد بأن ما يقوله صحيح. (ربما أعرف بالفعل ما قلته لي ، على سبيل المثال). لكن حقيقة أننا نثق في المتحدث يعطينا دافعًا إضافيًا لتصديق ما يقولونه.

لذلك ، تثير روبوتات الدردشة التي تعمل بالذكاء الاصطناعي قضايا مثيرة للاهتمام حول الثقة والشهادة. علينا أن نفكر فيما إذا كنا نثق في ما تخبرنا به مولدات اللغة الطبيعية مثل ChatGPT. الأمر الآخر هو ما إذا كانت روبوتات الدردشة التي تعمل بالذكاء الاصطناعي قادرة على أن تكون جديرة بالثقة.

معتقدات مبررة

لنفترض أنك أخبرتني أنها تمطر بالخارج. وفقًا لإحدى الطرق التي ينظر بها الفلاسفة إلى الشهادة ، فأنا مبرر في تصديقك فقط إذا كان لدي أسباب للاعتقاد بأن شهادتك موثوقة – على سبيل المثال ، كنت في الخارج – ولا توجد أسباب سائدة للاعتقاد بأنها ليست كذلك. يُعرف هذا بالنظرية الاختزالية للشهادة.

هذا الرأي يجعل المعتقدات المبررة – الافتراضات التي نشعر أنه يحق لنا التمسك بها – من الصعب الحصول عليها.

لكن وفقًا لوجهة نظر أخرى للشهادة ، سأكون مبررًا للاعتقاد بأن السماء تمطر في الخارج طالما ليس لدي سبب للاعتقاد بأن هذه العبارة خاطئة. هذا يجعل الحصول على المعتقدات المبررة من خلال الشهادة أسهل بكثير. وهذا ما يسمى بالنظرية غير الاختزالية للشهادة.

لاحظ أن أيا من هذه النظريات لا تتضمن الثقة في المتحدث. علاقتي بهم علاقة اعتماد وليس ثقة.

الثقة والاعتماد

عندما أعتمد على شخص ما أو شيء ما ، أتوقع أنه سيفعل ما أتوقعه. على سبيل المثال ، أعتمد على المنبه ليصدر صوتًا في الوقت الذي أضعه فيه ، وأعتمد على السائقين الآخرين للالتزام بقواعد الطريق.

ومع ذلك ، فإن الثقة هي أكثر من مجرد اعتماد. لتوضيح ذلك ، دعونا نفحص ردود أفعالنا تجاه الثقة في غير محله مقارنة بالاعتماد في غير محله.

إذا وثقت في روكسي لسقي زهور التوليب الحائزة على جائزتي أثناء إجازتي وتركتهم يموتون بلا مبالاة ، فقد أشعر بالخيانة بحق. في حين أنني إذا اعتمدت على الرش الآلي الخاص بي لسقي الزنبق وفشلت في الظهور ، فقد أصاب بخيبة أمل ولكن سيكون من الخطأ أن أشعر بالخيانة.

بعبارة أخرى ، الثقة تجعلنا عرضة للخيانة ، لذا فإن كوننا جديرين بالثقة أمر مهم من الناحية الأخلاقية بطريقة لا يمكن الاعتماد عليها.

في نظريات التأكيد للشهادة ، يقدم المتحدث نوعًا من الضمان حول صحة تصريحاتهم.
sutadimages / شترستوك

يبرز الفرق بين الثقة والاعتماد على بعض النقاط المهمة حول الشهادة. عندما يخبر شخص ما أن السماء تمطر ، فإنهم لا يشاركون المعلومات فحسب ؛ إنهم يتحملون المسؤولية عن صحة ما يقولونه.

في الفلسفة ، هذا يسمى نظرية ضمان الشهادة. يقدم المتحدث للمستمع نوعًا من الضمان بأن ما يقوله صحيح ، وبذلك يعطي المستمع سببًا لتصديقه. نحن نثق بالمتحدث ، بدلاً من الاعتماد عليه ، ليقول الحقيقة.

إذا اكتشفت أنك كنت تخمن بشأن المطر ولكن لحسن الحظ فهمت الأمر بشكل صحيح ، ما زلت أشعر بخيبة أمل لأن “ضمانك” كان فارغًا. يساعد جانب التأكيد أيضًا على فهم سبب ظهور الأكاذيب لنا أسوأ من التصريحات الكاذبة من الناحية الأخلاقية. بينما في كلتا الحالتين تدعوني للثقة ثم تخذل ثقتي ، تحاول الأكاذيب استخدام ثقتي ضدي لتسهيل الخيانة.

وكالة الأخلاق

إذا كانت وجهة نظر التأكيد صحيحة ، فيجب أن تكون ChatGPT قادرة على تحمل مسؤولية ما تقوله لكي تكون متحدثًا جديرًا بالثقة ، بدلاً من مجرد الاعتماد عليها. بينما يبدو أنه يمكننا إسناد الوكالة بشكل معقول إلى الذكاء الاصطناعي لأداء المهام كما هو مطلوب ، فإن ما إذا كان يمكن للذكاء الاصطناعي أن يكون وكيلًا مسؤولاً أخلاقياً هو سؤال آخر تمامًا.

يجادل بعض الفلاسفة بأن الفاعلية الأخلاقية لا تقتصر على البشر. يجادل آخرون بأنه لا يمكن تحميل الذكاء الاصطناعي المسؤولية الأخلاقية لأنهم ، على سبيل المثال لا الحصر ، غير قادرين على الحالات العقلية ، أو يفتقرون إلى الاستقلالية ، أو يفتقرون إلى القدرة على التفكير الأخلاقي.

ومع ذلك ، فإن ChatGPT ليس عاملًا أخلاقيًا. لا يمكن أن تتحمل مسؤولية ما تقول. عندما يخبرنا بشيء ما ، فإنه لا يقدم أي تأكيدات على حقيقته. هذا هو السبب في قدرتها على الإدلاء ببيانات كاذبة ، لكنها لا تكذب. على موقع الويب الخاص بها ، OpenAI – التي قامت ببناء ChatGPT – تقول إنه نظرًا لأن الذكاء الاصطناعي مدرب على البيانات من الإنترنت ، فقد يكون “غير دقيق وغير صادق ومضلل في بعض الأحيان”.

في أحسن الأحوال ، هو “مقياس للحقائق” أو مدقق للحقائق – وبحسب العديد من الروايات ، فهو ليس دقيقًا بشكل خاص. بينما قد يكون من المبرر في بعض الأحيان الاعتماد على ما يقوله ، لا ينبغي أن نثق به.

في حال كنت تتساءل ، كان الاقتباس الافتتاحي لهذه المقالة مقتطفًا من رد ChatGPT عندما سألته: “ما هو ChatGPT؟” لذلك لا ينبغي أن تثق في أن البيان كان صحيحًا. لكن، أنا يمكن أن أؤكد لكم أنه كذلك.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى