21 نوفمبر 2024
18 فبراير 2023
يمن فريدم-CNBC عربية

 

 

بعد أيام قليلة من إعلان ‏Google‏ و ‏Microsoft‏ أنهما سيقدمان محركات بحث تم ‏إنشاؤها بواسطة تقنيات روبوتية تعتمد على برمجيات ذكاء اصطناعي قادرة على ‏إنتاج نصوص تحاكي ما يصنعه البشر، شعر الكثيرون بالقلق من أن المساعد ‏الصوتي المدعوم بالذكاء الاصطناعي والمتاحة بالمنازل لدينا لا يمكن الوثوق بهم. ‏

 

بصفة عامة، حذر باحثو الذكاء الاصطناعي في ‏Google‏ الشركة من أن روبوتات ‏الدردشة ستكون "ببغاوات عشوائية" (من المحتمل أن تصرخ على أشياء خاطئة أو ‏غبية أو مسيئة) و "عرضة للهلوسة" (من شأنها اختلاق الأشياء فقط ). ‏

 

وكتب فريق من ‏DeepMind، شركة الذكاء الاصطناعي المملوكة لشركة ‏Alphabet، العام الماضي في عرض تقديمي عن المخاطر المحتملة: "روبوتات ‏المحادثة هذه ليست ذكية في الواقع.. إنهم أغبياء يكذبون."‏

 

ولم يستغرق الأمر وقتًا طويلاً حتى تثبت روبوتات المحادثة هذه النقطة، فقد أظهر ‏إعلان الأسبوع الماضي لروبوت ‏Google ‏ الذي أطلقت عليه اسم ‏Bard، إجابات ‏فاشلة. في غضون ذلك، فشلت الإجابات التي قدمها روبوت ‏Bing، سيدني، في ‏الوقوف حتى أمام عمليات التحقق من المعلومات الأولية والبدائية.‏

 

يرى محللون أن روبوتات الدردشة هي محركات هراء مصممة لتقول الأشياء بيقين ‏لا جدال فيه ونقص كامل في الخبرة، فلماذا نشتري هراءهم؟ ‏

 

بصراحة، لا أحد يعرف حقًا سبب تصديق أي شخص لأي شيء. بعد آلاف السنين ‏من النقاش، لم يتفق الفلاسفة وعلماء النفس وعلماء الأعصاب الرائدون في العالم ‏حتى على آلية لسبب تصديق الناس للأشياء، أو حتى ماهية المعتقدات. لذلك من ‏الصعب معرفة كيفية عملها، أو لماذا يكون أحد الأشياء أكثر تصديقًا من الآخر. ‏لكن هناك بعض التكهنات حول سبب سقوطنا في غرام تطبيق ‏ChatGPT‏: مثلاً ‏نحن البشر نحب شخصًا أنيقًا يتمتع بأوراق اعتماد تبدو مثيرة للإعجاب، وهذا ما ‏تبديه تلك التطبيقات، بل مع مرور الوقت، ستصبح الروبوتات أكثر تعقيداً في ‏خداعنا.‏

 

أرقام رئيسة

 

على مدار العقدين الماضيين، كان هناك الكثير من الأبحاث حول سبب اعتقاد ‏الناس بالمعلومات الخاطئة. افترض الكثيرون أننا سنواجه في الغالب خيالًا يتظاهر ‏بأنه حقيقة في شكل دعاية أو وسائل التواصل الاجتماعي. لكن هذا على وشك ‏التغيير. سيتم الآن تضمين المعلومات المضللة في محركات البحث التي نستخدمها. ‏

 

الآن، ليست كل المعتقدات معتمدة بقوة، أو حتى مبنية على الأدلة، لذلك ربما ‏سيتعامل الأشخاص مع إجابات روبوتات الدردشة بالطريقة التي نتعامل بها مع أي ‏معلومات جديدة. ‏

 

يقول جو فيتريول، عالم السياسة في جامعة ليهاي الذي يدرس المعلومات المضللة، ‏إنه يتوقع تصديق الناس لروبوت الدردشة إذا أخبرهم بأشياء تتوافق مع معتقداتهم ‏وآرائهم الحالية - تمامًا كما يفعلون مع نتائج ‏Google‏ التقليدية. وما إذا كان ‏روبوت المحادثة يقول الحقيقة أو هلوسات لن يهم حقًا.‏

 

وتكمن المشكلة في أننا لا نعرف حقًا ما الذي يجعل الناس يقعون تحت تأثير تفسير ‏على آخر. تشير بعض الأبحاث إلى أن التفسيرات التي تتمتع بأكبر قدر من القوة ‏هي تلك التي تكون أبسط وأكثر قابلية للتطبيق على نطاق واسع. ‏

 

قبل أيام قليلة فقط من إعلان كل من ‏Google‏ و ‏Microsoft‏ عن رحلتهما ‏الوشيكة لتطوير تلك الروبوتات، نشر فريق من علماء الاجتماع في جامعة ‏ستانفورد طبعة أولية رائعة. لقد عرضوا على آلاف الأشخاص مقالات قصيرة ‏مقنعة حول الموضوعات الساخنة مثل حظر الأسلحة الهجومية وضرائب الكربون. ‏تمت كتابة بعض الإصدارات بواسطة ‏chatbot GPT-3، وأخرى بواسطة ‏الإنسان. ثم قام العلماء بقياس مدى تغيير الناس لآرائهم بناءً على المقالات.‏

 

اتضح أن الرسائل التي تم إنشاؤها بواسطة الذكاء الاصطناعي كانت مقنعة تمامًا ‏مثل الرسائل البشرية. لكن الجزء الجامح هو السبب. عندما قام الباحثون ‏باستخلاص المعلومات من البشر، قال أولئك الذين فضلوا مقالات الشات بوت إن ‏الرسائل الحرفية من صنع الإنسان اعتمدت كثيرًا على الحكايات والصور، بينما ‏كان ‏GPT-3‏ أكثر استنادًا إلى الأدلة ومنطقًا جيدًا. ‏

 

كما أن الجودة ذاتها التي جعلت الروبوت أقل إنسانية جعلت البشر أكثر عرضة ‏لتصديقه. تمامًا مثل أفلام الخيال العلمي، لم تشعر روبوتات المحادثة بالشفقة أو ‏الندم أو الخوف ولم يتوقفوا على الإطلاق أبدًا حتى اقتنع البشر.‏

 

الكسل البشري

 

إحدى النظريات حول سبب انتشار المعلومات المضللة والأخبار الزائفة هي أن ‏الناس كسالى تمامًا. يشترون كل ما يبيعه مصدر موثوق به.‏

 

وإذا كانت روبوتات المحادثة تحصل على المعلومات المضللة بشكل صحيح معظم ‏الوقت، فهذا جيد بما فيه الكفاية. ‏

 

سوف تقدم لنا روبوتات الدردشة المدعومة بالذكاء الاصطناعي إجابات سهلة. ‏علينا فقط أن نتذكر أن هذا ليس ما يجب أن نطلبه.‏

 

الفيس بوك
تويتر

جميع الحقوق محفوظة YemenFreedom ---- تصميم وبرمجة ALRAJIHI