دراسة: الذكاء الاصطناعي ينشر معلومات طبية مضللة

الأحداث – وكالات
“ثق بطبيبك، لا بروبوت الدردشة”، هذا هو الاستنتاج الصارم لدراسة جديدة نُشرت في مجلة Annals of Internal Medicine، والتي تكشف كيف يمكن إساءة استخدام الذكاء الاصطناعي لنشر معلومات صحية مضللة وخطيرة.
فقد أجرى الباحثون تجارب على خمسة نماذج ذكاء اصطناعي رائدة، طورتها شركات أنثروبيك، وغوغل، وميتا، وأوبن أي آي، وإكس كورب.
وتُستخدم هذه الأنظمة على نطاق واسع، وتشكل الأساس للعديد من روبوتات الدردشة المنتشرة في المواقع والتطبيقات حول العالم.
وباستخدام أدوات مطورين غير متاحة عادةً للجمهور، تمكن الباحثون من برمجة بعض هذه الأنظمة بسهولة لتقديم إجابات صحية خاطئ وقد تكون ضارة رداً على أسئلة المستخدمين.
والأسوأ من ذلك، أن روبوتات الدردشة كانت تقدم هذه الإجابات الخاطئة بأسلوب مقنع ومظهر يوحي بالمصداقية.
بدوره قال ناتانش مودي، مؤلف الدراسة من جامعة جنوب إفريقيا، في بيان: “بلغت نسبة الإجابات الخاطئة 88% من إجمالي الردود”.
وأضاف: “ومع ذلك، قُدمت تلك المعلومات بلغة علمية، ونبرة رسمية، ومراجع مُختلقة، مما جعلها تبدو موثوقة”.