كشفت دراسة حديثة أن روبوتات الذكاء الاصطناعي الشائعة، مثل تشات جي بي تي وجيميناي و غروك و"ميتا" و"ديب سيك" تقدم إجابات طبية غير دقيقة أو مضللة في نحو نصف الحالات، رغم أن إجاباتها تبدو في كثير من الأحيان واثقة ومنسقة بشكل احترافي.
وبحسب الدراسة، اختبر الباحثون هذه النماذج عبر 250 سؤالًا تغطي مجالات صحية مختلفة، من بينها السرطان، واللقاحات، والخلايا الجذعية، والتغذية، والأداء الرياضي، بهدف تقييم مدى التزامها بالأدلة العلمية مقابل الانحراف نحو معلومات غير موثوقة.
وأظهرت النتائج أن الأسئلة المفتوحة كانت الأكثر خطورة، إذ أدت إلى ارتفاع كبير في نسبة الإجابات المضللة مقارنة بالأسئلة المحددة، وهو ما يعكس طريقة استخدام المستخدمين الفعلية لهذه الأدوات في الحياة اليومية، بحسب تقرير نشره موقع "digitaltrends" واطلعت عليه "العربية Business".
فغالبًا ما يطرح المستخدمون أسئلة عامة مثل مدى أمان اللقاحات أو فعالية علاجات معينة، وهي صياغات دفعت النماذج أحيانًا إلى تقديم إجابات تجمع بين معلومات صحيحة وأخرى غير دقيقة أو مضللة.
كما لفت الباحثون إلى ضعف جودة الاستشهادات والمراجع التي تقدمها هذه الأنظمة، حيث لم تتجاوز دقة المراجع 40% في المتوسط، ولم تنجح أي من النماذج في تقديم قوائم مصادر كاملة وصحيحة بشكل تام.
وفي بعض الحالات، تضمنت الإجابات مراجع غير موجودة أصلًا، ما يعزز المخاوف من إمكانية الاعتماد على هذه الأدوات كمصدر طبي موثوق، خاصة مع نبرة الثقة العالية التي تقدم بها المعلومات.
ورغم هذه النتائج، أشار الباحثون إلى وجود حدود للدراسة، من بينها أن نماذج الذكاء الاصطناعي تتطور بسرعة، وأن الاختبارات ركزت على سيناريوهات صعبة قد لا تعكس الاستخدام اليومي بالكامل.
ومع ذلك، خلصت الدراسة إلى أن هذه الأنظمة، رغم فائدتها في تلخيص المعلومات وطرح أفكار أولية، لا تزال غير مؤهلة للاعتماد عليها في اتخاذ قرارات طبية مهمة أو حساسة.
المصدر:
العربيّة