مقالات عامة

يمكن أن يهدد الذكاء الاصطناعي بعض الوظائف ، ولكن من المرجح أن يصبح مساعدنا الشخصي

مجلة المذنب نت متابعات عالمية:

أعلنت شركة BT مؤخرًا أنها ستخفض عدد موظفيها بمقدار 55000 موظف ، منهم حوالي 11000 مرتبط باستخدام الذكاء الاصطناعي (AI). كانت بقية التخفيضات بسبب كفاءة الأعمال ، مثل استبدال الكابلات النحاسية ببدائل ألياف بصرية أكثر موثوقية.

تثير النقطة المتعلقة بالذكاء الاصطناعي العديد من الأسئلة حول تأثيره على الاقتصاد الأوسع: ما هي الوظائف التي ستتأثر أكثر بالتكنولوجيا ، وكيف ستحدث هذه التغييرات وكيف سيتم الشعور بهذه التغييرات؟

كان تطوير التكنولوجيا وتأثيرها المرتبط على الأمن الوظيفي موضوعًا متكررًا منذ الثورة الصناعية. حيث كانت الميكنة في يوم من الأيام سبب القلق بشأن فقدان الوظائف ، أصبحت اليوم خوارزميات ذكاء اصطناعي أكثر قدرة. ولكن بالنسبة للعديد من فئات الوظائف أو معظمها ، سيظل الاحتفاظ بالبشر أمرًا حيويًا في المستقبل المنظور.

التكنولوجيا وراء هذه الثورة الحالية هي في الأساس ما يُعرف بنموذج اللغة الكبير (LLM) ، القادر على إنتاج ردود شبيهة نسبيًا بالإنسان على الأسئلة. هذا هو الأساس لـ OpenAI’s ChatGPT ونظام Google Bard و Microsoft Bing AI.

هذه كلها شبكات عصبية: أنظمة الحوسبة الرياضية المصممة بطريقة فجة على الطريقة التي تطلق بها الخلايا العصبية (الخلايا العصبية) في دماغ الإنسان. يتم تدريب هذه الشبكات العصبية المعقدة – أو التعرف عليها – على النصوص ، وغالبًا ما يتم الحصول عليها من الإنترنت.

تمكّن عملية التدريب المستخدم من طرح سؤال بلغة المحادثة وللخوارزمية لتقسيم السؤال إلى مكونات. ثم تتم معالجة هذه المكونات لتوليد إجابة مناسبة للسؤال المطروح.

والنتيجة هي نظام قادر على تقديم إجابات منطقية لأي سؤال يُطرح عليه. الآثار المترتبة على ذلك أوسع نطاقا مما قد تبدو عليه.

البشر في الحلقة

وبنفس الطريقة التي يمكن أن يحل فيها نظام الملاحة GPS للسائق محل حاجته إلى معرفة الطريق ، يوفر الذكاء الاصطناعي فرصة للعاملين للحصول على جميع المعلومات التي يحتاجون إليها في متناول أيديهم ، دون الحاجة إلى “البحث في Google”.

بشكل فعال ، يزيل البشر من الحلقة ، مما يعني أن أي موقف تتضمن فيه وظيفة الشخص البحث عن عنصر ما والربط بينهما قد يكون في خطر. المثال الأكثر وضوحًا هنا هو وظائف مركز الاتصال.

ومع ذلك ، يظل من الممكن ألا يقبل أفراد الجمهور وجود ذكاء اصطناعي يحل مشاكلهم ، حتى لو أصبحت أوقات انتظار المكالمات أقصر بكثير.

أي عمل يدوي ينطوي على مخاطر استبدال بعيدة جدًا. بينما أصبحت الروبوتات أكثر قدرة ومهارة ، فإنها تعمل في بيئات شديدة التقييد. يعتمد على أجهزة الاستشعار التي تقدم معلومات حول العالم ثم اتخاذ القرارات بشأن هذه البيانات غير الكاملة.

لا يتعرض السباكون والكهربائيون والأدوار اليدوية الأخرى الأكثر تعقيدًا لتهديد مباشر.
Andrey_Popov / شاترستوك

الذكاء الاصطناعي ليس جاهزًا لمساحة العمل هذه بعد ، فالعالم مكان فوضوي وغير مؤكد يتفوق فيه البشر القابلون للتكيف. يواجه السباكون والكهربائيون والوظائف المعقدة في التصنيع – على سبيل المثال ، السيارات أو الطائرات – منافسة قليلة أو معدومة على المدى الطويل- شرط.

ومع ذلك ، من المرجح أن يكون التأثير الحقيقي للذكاء الاصطناعي محسوسًا من حيث وفورات الكفاءة بدلاً من الاستبدال الكامل للوظيفة. من المرجح أن تجد التكنولوجيا قوة دفع سريعة كمساعد للبشر. هذا يحدث بالفعل ، لا سيما في مجالات مثل تطوير البرمجيات.

بدلاً من استخدام Google لمعرفة كيفية كتابة جزء معين من التعليمات البرمجية ، يكون طرح ChatGPT أكثر فاعلية. يمكن تصميم الحل الذي يعود بشكل صارم وفقًا لمتطلبات الشخص ، ويتم تقديمه بكفاءة ودون تفاصيل غير ضرورية.

أنظمة السلامة الحرجة

سيصبح هذا النوع من التطبيقات أكثر شيوعًا حيث تصبح أدوات الذكاء الاصطناعي المستقبلية مساعدين أذكياء حقيقيين. ما إذا كانت الشركات تستخدم هذا كذريعة للنظر في تقليل القوى العاملة ، فإن ذلك يعتمد على عبء العمل.

نظرًا لأن المملكة المتحدة تعاني من نقص في خريجي Stem (العلوم والتكنولوجيا والهندسة والرياضيات) ، خاصة في تخصصات مثل الهندسة ، فمن غير المرجح أن يكون هناك فقدان للوظائف في هذا المجال ، فقط طريقة أكثر كفاءة لمعالجة الوضع الحالي. عبء العمل.

يعتمد هذا على الموظفين الذين يستفيدون إلى أقصى حد من الفرص التي تتيحها التكنولوجيا. بطبيعة الحال ، سيكون هناك شك دائمًا ، وسيستغرق اعتماد الذكاء الاصطناعي في تطوير أنظمة السلامة الحرجة ، مثل الطب ، وقتًا طويلاً. هذا لأن الثقة في المطور هي المفتاح ، وأبسط طريقة تتطور هي من خلال وجود إنسان في قلب العملية.

هذا أمر بالغ الأهمية ، حيث يتم تدريب LLMs باستخدام الإنترنت ، لذلك يتم نسج التحيزات والأخطاء. يمكن أن تنشأ هذه بشكل عرضي ، على سبيل المثال ، من خلال شخص ما إلى حدث معين لمجرد أنه يشترك في نفس الاسم مع شخص آخر. والأخطر من ذلك ، أنها قد تحدث أيضًا من خلال نوايا خبيثة ، مما يسمح عمدًا بتقديم بيانات التدريب التي تكون خاطئة أو حتى مضللة عن عمد.

أصبح الأمن السيبراني مصدر قلق متزايد لأن الأنظمة أصبحت أكثر تشابكًا ، وكذلك مصدر البيانات المستخدمة لبناء الذكاء الاصطناعي. تعتمد LLM على المعلومات المفتوحة باعتبارها لبنة بناء يتم تنقيحها عن طريق التفاعل. هذا يثير احتمال وجود أساليب جديدة لمهاجمة الأنظمة من خلال خلق أكاذيب متعمدة.

على سبيل المثال ، يمكن للقراصنة إنشاء مواقع ضارة ووضعها في أماكن يُحتمل أن يلتقطها روبوت محادثة AI. بسبب متطلبات تدريب الأنظمة على الكثير من البيانات ، من الصعب التحقق من صحة كل شيء.

هذا يعني أننا ، كعمال ، نحتاج إلى النظر في تسخير قدرة أنظمة الذكاء الاصطناعي واستخدامها إلى أقصى إمكاناتها. هذا يعني دائمًا التساؤل عما نتلقاه منهم ، بدلاً من مجرد الثقة في إنتاجهم بشكل أعمى. تعيد هذه الفترة إلى الأذهان الأيام الأولى لنظام تحديد المواقع العالمي (GPS) ، عندما كانت الأنظمة غالبًا ما تقود المستخدمين إلى طرق غير مناسبة لسياراتهم.

إذا طبقنا عقلية متشككة على كيفية استخدامنا لهذه الأداة الجديدة ، فسنزيد من قدرتها إلى أقصى حد مع تنمية القوى العاملة في نفس الوقت – كما رأينا خلال جميع الثورات الصناعية السابقة.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى