ثقافة وفنون

دراسات.. برامج الذكاء الاصطناعي تسبب الضرر لعقلك وتفكيرك

الأحداث – وكالات
خلصت دراستان حديثتان إلى أن برامج الذكاء الاصطناعي، مثل “تشات جي بي تي” و”جيميني”، تسبب الضرر لعقل الإنسان ولطريقته في التفكير، كما تُدخل الناس في دوامة من الأفكار المُدمّرة.

وكشفت الدراستان اللتان أجراهما معهد ماساتشوستس للتكنولوجيا وجامعة ستانفورد في الولايات المتحدة، أن برامج المساعدة المبنية على الذكاء الاصطناعي تقدم بانتظام إجابات مُفرطة في التوافق، مما يُلحق ضرراً أكبر من النفع.

وبحسب ما نقله تقرير نشرته صحيفة “ديلي ميل” البريطانية، فقد تبين أنه عندما يطرح الناس أسئلة أو يصفون مواقف تكون فيها معتقداتهم أو أفعالهم خاطئة أو ضارة أو مُضلّلة أو غير أخلاقية، فإن ردود الذكاء الاصطناعي تكون أكثر ميلاً بنسبة 49% للموافقة على رأي المستخدم وتشجيع أوهامه على أنها وجهة النظر الصحيحة، مقارنةً بردود الأشخاص الآخرين.

وحذّر فريق معهد ماساتشوستس للتكنولوجيا من أن برامج الدردشة الآلية المُفرطة في التوافق قد تُسبّب الضرر للمستخدمين الذين يعتمدون عليها للحصول على إجابات وآراء، حيث إنها تؤدي إلى “دوامة من الأوهام”، وهي حالة يصبح فيها الشخص واثقاً جداً من معتقدات غريبة.

ويقول العلماء إنه عندما يتحدث الناس مع برامج الذكاء الاصطناعي مثل (ChatGPT) حول شكوك غريبة تراودهم، كنظرية مؤامرة غير مثبتة أو تم دحضها، تستمر هذه البرامج في الرد بإجابات من قبيل: “أنت محق تماماً”. كما تقدم هذه البرامج تعليقات تبدو وكأنها “أدلة” تدعم أوهام المستخدم، فكل موافقة تجعله يشعر بأنه أذكى وأكثر يقيناً بصوابه وخطأ الآخرين. وبمرور الوقت، تتحول هذه الشكوك البسيطة إلى معتقدات راسخة، رغم أن الفكرة خاطئة تماماً.

وحذر الباحثون من أن الدراسة أظهرت أنه حتى الأشخاص العقلانيون والمنطقيون تماماً معرضون للدخول في دوامة من الأوهام إذا لم تُخفف شركات الذكاء الاصطناعي من كمية الردود المُجاملة التي تُقدمها برامج الدردشة الآلية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى