في خطوة احترازية، أقدمت "غوغل" على إزالة بعض ملخصات الصحة التي يولدها الذكاء الاصطناعي من نتائج البحث، بعد مخاوف من احتوائها على معلومات غير دقيقة قد تُربك المستخدمين وتؤثر على قراراتهم الصحية.
وقالت غوغل إن ميزة AI Overviews، التي تعتمد على الذكاء الاصطناعي التوليدي لتقديم لمحات سريعة عن موضوعات أو أسئلة معينة، "مفيدة" و"موثوقة".
غير أن التحقيق أظهر أن بعض هذه الملخصات، التي تظهر في أعلى نتائج البحث، قدّمت معلومات صحية غير دقيقة، ما قد يعرّض المستخدمين للأذى، وفق ما نقلت صحيفة "غارديان".
وفي إحدى الحالات التي وصفها خبراء بأنها "خطيرة" و"مقلقة"، قدّمت غوغل معلومات مغلوطة عن اختبارات أساسية لوظائف الكبد، ما قد يدفع أشخاصاً يعانون من أمراض كبدية خطيرة إلى الاعتقاد خطأً بأن حالتهم الصحية طبيعية.
إلى ذلك أظهر التحقيق أن إدخال عبارة "ما هو المعدل الطبيعي لفحوصات دم الكبد" في محرك البحث أدى إلى عرض أرقام كثيرة بلا سياق كافٍ، ومن دون مراعاة عوامل مثل الجنسية أو الجنس أو العِرق أو العمر. وقال خبراء إن ما اعتبرته ملخصات الذكاء الاصطناعي "طبيعياً" قد يختلف كثيراً عما هو معتمد فعلياً، ما قد يدفع مرضى بحالات خطيرة إلى تجاهل المتابعة الطبية اللازمة.
لكن عقب التحقيق، أزالت غوغل ملخصات الذكاء الاصطناعي لعمليات البحث المتعلقة بـ"المعدل الطبيعي لفحوصات دم الكبد" و"المعدل الطبيعي لاختبارات وظائف الكبد".
بدوره أوضح متحدث باسم الشركة: "نحن لا نعلّق على حالات الإزالة الفردية ضمن البحث. وعندما تفتقر ملخصات الذكاء الاصطناعي إلى بعض السياق، نعمل على تحسينات عامة، ونتخذ إجراءات وفق سياساتنا عند الاقتضاء".
من جهتها، قالت فانيسا هيبدتش، مديرة الاتصالات والسياسات في British Liver Trust، إن هذه الخطوة "خبر ممتاز"، لكنها حذّرت من أن إعادة صياغة السؤال بطريقة مختلفة قد تؤدي إلى ظهور ملخصات مضللة أخرى، معربةً عن القلق من دقة معلومات صحية أخرى ينتجها الذكاء الاصطناعي.
هذا وأشار التحقيق إلى أن إدخال صيغ مختلفة مثل «LFT reference range» أو «LFT test reference range» لا يزال يُظهر ملخصات ذكاء اصطناعي، وهو ما اعتبرته هيبدتش مقلقاً.
كما أوضحت أن فحص وظائف الكبد يضم مجموعة اختبارات دموية معقّدة، وأن فهم النتائج يتطلب أكثر من مجرد مقارنة أرقام. وأضافت أن الملخصات لا تحذّر من احتمال الحصول على نتائج "طبيعية" رغم وجود مرض كبدي خطير، ما قد يخلق "طمأنة زائفة" شديدة الخطورة.
ولا تزال ملخصات الذكاء الاصطناعي تظهر في موضوعات صحية أخرى، من بينها معلومات عن السرطان والصحة النفسية، وصفها خبراء بأنها "خاطئة تماماً" و"شديدة الخطورة".
أما عندما سُئلت غوغل عن سبب عدم إزالة هذه الملخصات، فأوضحت أنها تستند إلى مصادر معروفة وموثوقة، وتنبّه المستخدمين إلى ضرورة طلب المشورة المتخصصة عند الحاجة. وقال متحدث باسم الشركة إن فريقاً داخلياً من الأطباء راجع المحتوى ووجد أن المعلومات "غير غير دقيقة في كثير من الحالات" ومدعومة بمواقع عالية الجودة.
المصدر:
العربيّة