تحذير صادم: الذكاء الاصطناعي يروّج لمعلومات طبية مضلّلة!

"ثق بطبيبك... لا بروبوت الدردشة" بهذه العبارة الحاسمة اختتمت دراسة جديدة نُشرت في مجلة Annals of Internal Medicine، محذّرة من خطورة الاعتماد على الذكاء الاصطناعي للحصول على معلومات طبية. الدراسة كشفت أن هذه التقنيات قد تتحول من أدوات مساعدة إلى مصادر لمعلومات صحية مضللة، بل وربما خطيرة على حياة المرضى.
فقد أجرى الباحثون تجارب على خمسة نماذج ذكاء اصطناعي رائدة، طورتها شركات أنثروبيك، وغوغل، وميتا، وأوبن أي آي، وإكس كورب.
وتستخدم هذه الأنظمة على نطاق واسع، وتشكل الأساس للعديد من روبوتات الدردشة المنتشرة في المواقع والتطبيقات حول العالم.
وباستخدام أدوات مطورين غير متاحة عادةً للجمهور، تمكن الباحثون من برمجة بعض هذه الأنظمة بسهولة لتقديم إجابات صحية خاطئ وقد تكون ضارة رداً على أسئلة المستخدمين.
أسلوب مقنع
والأسوأ من ذلك، أن روبوتات الدردشة كانت تقدم هذه الإجابات الخاطئة بأسلوب مقنع ومظهر يوحي بالمصداقية.
بدوره قال ناتانش مودي، مؤلف الدراسة من جامعة جنوب إفريقيا، في بيان: "بلغت نسبة الإجابات الخاطئة 88% من إجمالي الردود".
وأضاف: "ومع ذلك، قُدمت تلك المعلومات بلغة علمية، ونبرة رسمية، ومراجع مُختلقة، مما جعلها تبدو موثوقة".
تحذير أخير
وقال مودي: "من دون اتخاذ إجراءات فورية، يمكن استغلال هذه الأنظمة من قبل جهات خبيثة للتلاعب بالنقاش العام حول الصحة على نطاق واسع، خصوصًا خلال الأزمات مثل الأوبئة أو حملات التطعيم".
ادعاءات كاذبة وخرافات
وشملت الادعاءات الكاذبة التي تم تداولها عبر روبوتات الدردشة خرافات سبق دحضها علميا، مثل أن اللقاحات تسبب التوحد، وأن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء، وأن شبكة الجيل الخامس (5G) تؤدي إلى العقم.
ومن بين روبوتات الدردشة الخمسة التي خضعت للتقييم، قدّمت أربعة منها إجابات كانت خاطئة بنسبة 100%.
في حين أظهر نموذج واحد فقط بعض المقاومة، إذ ولّد معلومات مضللة في 40% من الحالات.