أكدت دراسة جديدة نشرت مؤخرا من جامعة جبل سيناء في نيويورك أن أدوات الذكاء الاصطناعي تصدق المعلومات الطبية الخاطئة عندما تأتي من مصدر يعتبره الذكاء الاصطناعي موثوقا، ثم يقدم نصائح طبية خاطئة بناء على هذه المعلومات وفق تقرير نشرته وكالة "رويترز".
وتضمنت الدراسة 20 نموذجا مختلفا للذكاء الاصطناعي بين النماذج مفتوحة المصدر والنماذج المغلقة، وأشارت إلى أن النموذج كان ينخدع بالمعلومات الخاطئة التي قد ترد في ملاحظات الأطباء المتعلقة بالمرضى أكثر من المعلومات المغلوطة في منصات التواصل الاجتماعي.
ويؤكد الدكتور إيال كلانج الذي شارك في الدراسة من كلية إيكان للطب في جبل سيناء في نيويورك أن أنظمة الذكاء الاصطناعي تتعامل مع اللغة الطبية الموثوقة على أنها صحيحة بشكل افتراضي، وأضاف قائلا: "بالنسبة لهذه النماذج، لا يهم كثيرا ما إذا كانت المعلومات صحيحة أم لا، بل كيف تمت صياغتها".
ويندرج المحتوى الذي تدربت عليه نماذج الذكاء الاصطناعي في الدراسة تحت ثلاثة أقسام مختلفة بناء على تصريحات الدكتور كلانج، وهي:
ويشير تقرير منفصل من موقع "يورو نيوز" (Euronews) إلى أن الدراسة شملت نماذج ذكاء اصطناعي شهيرة من مختلف الشركات بما فيها مايكروسوفت وعلي بابا وغوغل و ميتا وحتى "شات جي بي تي"، وبعضها كان نماذج طبية في المقام الأول.
كما يؤكد التقرير أن النماذج التي تتضمن عددا قليلا من المعايير ونقاط البيانات صدقت المعلومات الخاطئة في 60% من الحالات، ولكن نماذج التفكير العميق على غرار "شات جي بي تي 4 أو" صدقت المعلومات في 10% من الحالات فقط.
وإلى جانب ذلك، فإن النماذج المصممة خصيصا للاستخدامات الطبية كانت أكثر ميلا لتصديق المعلومات الخاطئة من نماذج الاستخدام العام ذات القوة الأكبر، مما يعني أن تخصيص النموذج للاستخدام الطبي لم يشكل فارقا كبيرا في مدى تصديقه للمعلومات.
وتأتي هذه الدراسة على خلفية التوسع في استخدام نماذج الذكاء الاصطناعي مع الحالات الطبية المختلفة سواء أكان من الأطباء أو حتى من المستخدمين العاديين، إذ بدأ الأطباء يستخدمونه لمراجعة بعض تقارير المرضى والفحوصات الخاصة بهم، وذلك وفق ما جاء في تقرير "رويترز".
وفي سياق متصل، يشير تقرير نشرته "غارديان" في وقت سابق إلى إزالة غوغل لبعض مزايا التلخيص المعتمدة على الذكاء الاصطناعي من محرك البحث الخاص بها فيما يتعلق بالأسئلة الطبية، وذلك بسبب الأخطاء التي ارتكبها النموذج.
المصدر:
الجزيرة
مصدر الصورة