مع لجوء مئات الملايين من الأشخاص إلى روبوتات الدردشة طلبا للنصيحة، كان مجرد مسألة وقت قبل أن تبدأ شركات التكنولوجيا في طرح برامج مصممة خصيصا للإجابة عن الأسئلة الصحية. ففي يناير/كانون الثاني قدمت شركة "OpenAI" خدمة "ChatGPT Health"، وهي نسخة جديدة من روبوت الدردشة تقول الشركة إنها قادرة على تحليل السجلات الطبية للمستخدمين وتطبيقات العافية وبيانات الأجهزة القابلة للارتداء للإجابة عن الأسئلة الصحية والطبية. ويوجد حاليا قائمة انتظار للاستفادة من هذا البرنامج، فيما تقدم شركة "Anthropic"، المنافسة في مجال الذكاء الاصطناعي، مزايا مشابهة لبعض مستخدمي روبوت الدردشة الخاص بها "Claude". وتؤكد الشركتان أن هذه البرامج، المعروفة باسم النماذج اللغوية الضخمة، ليست بديلا عن الرعاية الطبية المتخصصة ولا ينبغي استخدامها لتشخيص الأمراض، بل يمكنها تلخيص وشرح نتائج الفحوص المعقدة، والمساعدة في التحضير لزيارة الطبيب أو تحليل الاتجاهات الصحية المهمة المخبأة في السجلات الطبية وبيانات التطبيقات. لكن يبقى السؤال: ما مدى أمان ودقة هذه الروبوتات في تحليل البيانات والحالات الصحية، وهل ينبغي الاعتماد عليها فعلا؟ إليك بعض الأمور التي يجدر التفكير فيها قبل اللجوء إلى روبوت دردشة لمناقشة صحتك:
بعض الأطباء والباحثين الذين تعاملوا مع خدمة "ChatGPT Health" وبرامج مشابهة يرون أنها تمثل تحسنا مقارنة بالوضع الحالي. فرغم أن منصات الذكاء الاصطناعي ليست مثالية وقد "تهلوس" أحيانا أو تقدم نصائح سيئة (المصدر باللغة الإنجليزية) ، فإن المعلومات التي تنتجها غالبا ما تكون أكثر تخصيصا ودقة مما قد يجده المرضى عبر بحث عادي على "غوغل". وقال روبرت واكتر، خبير التكنولوجيا الطبية في جامعة كاليفورنيا في سان فرانسيسكو: "البديل في كثير من الأحيان هو لا شيء، أو أن يحاول المريض التصرف من تلقاء نفسه. لذلك أعتقد أنه إذا استُخدمت هذه الأدوات بمسؤولية، فيمكن أن تقدم معلومات مفيدة". وفي دول مثل المملكة المتحدة أو الولايات المتحدة، حيث قد يستغرق تحديد مواعيد الأطباء أسابيع، وغالبا ما يمتد الانتظار في أقسام الطوارئ لساعات، يمكن لروبوتات الدردشة أن تساعد في تقليل الهلع غير الضروري وتوفير الوقت في حالات كثيرة، لكنها قادرة أيضا على التنبيه عندما تكون الأعراض خطيرة وتحتاج إلى تقييم من قبل مختصين حقيقيين.
ومن مزايا أحدث هذه الروبوتات أنها تجيب عن أسئلة المستخدمين مستندة إلى سياق من تاريخهم الطبي ، بما في ذلك الأدوية الموصوفة والعمر وملاحظات الأطباء. وحتى إذا لم تمنح الذكاء الاصطناعي حق الوصول إلى معلوماتك الطبية، يوصي واكتر وغيره بتزويد روبوتات الدردشة بأكبر قدر ممكن من التفاصيل لتحسين جودة الإجابات.
يشدد واكتر وغيره على أن هناك حالات ينبغي فيها تجاهل روبوت الدردشة وطلب الرعاية الطبية فورا؛ فالأعراض مثل ضيق التنفس أو ألم الصدر أو الصداع الشديد قد تكون مؤشرا على حالة طبية طارئة. وحتى في الحالات الأقل إلحاحا، ينصح الخبراء بالتعامل مع برامج الذكاء الاصطناعي "بقدر من الشك الصحي"، على حد تعبير لويد ماينر من جامعة "Stanford". وقال ماينر، عميد كلية الطب في "Stanford": "إذا كنت تتحدث عن قرار طبي كبير، أو حتى قرار صغير يخص صحتك، فلا ينبغي أبدا أن تعتمد فقط على ما تحصل عليه من نموذج لغوي ضخم". وحتى في الحالات الشائعة أو الأقل تعقيدا، مثل متلازمة تكيس المبايض (متلازمة تكيس المبايض "PCOS")، قد يكون من الأفضل استشارة مختص حقيقي بسبب اختلاف تجليات هذه الحالة من شخص لآخر وتأثير ذلك في خطط العلاج.
الكثير من المزايا التي تقدمها روبوتات الذكاء الاصطناعي تعتمد على مشاركة المستخدمين معلوماتهم الطبية الشخصية، لكن من المهم إدراك أن أي شيء يُشارك مع شركة للذكاء الاصطناعي لا يخضع لقانون الخصوصية الفدرالي الأمريكي الذي ينظم عادة التعامل مع المعلومات الطبية الحساسة. هذا القانون، المعروف اختصارا باسم "HIPAA"، يتيح فرض غرامات بل وحتى عقوبات بالسجن على الأطباء والمستشفيات وشركات التأمين وخدمات الصحة الأخرى التي تكشف السجلات الطبية، لكنه لا ينطبق على الشركات التي تطور روبوتات الدردشة. وقال ماينر: "عندما يحمّل شخص ما ملفه الطبي إلى نموذج لغوي ضخم، فالأمر يختلف تماما عن تسليمه إلى طبيب جديد. يجب على المستهلكين أن يفهموا أن معايير الخصوصية مختلفة تماما". وتقول كل من "OpenAI" و"Anthropic" إن المعلومات الصحية للمستخدمين تُحفظ منفصلة عن أنواع البيانات الأخرى وتخضع لحماية إضافية، وإنها لا تستخدم هذه البيانات لتدريب نماذجها، كما يتعين على المستخدمين الموافقة صراحة على مشاركة معلوماتهم، ويمكنهم قطع هذا الارتباط في أي وقت.
على الرغم من الحماس المحيط بالذكاء الاصطناعي، لا تزال الاختبارات المستقلة لهذه التكنولوجيا في بداياتها. وتشير الدراسات الأولى إلى أن برامج مثل "ChatGPT" قد تنجح في اجتياز امتحانات طبية رفيعة المستوى، لكنها غالبا ما تتعثر عند التفاعل مع البشر. فقد خلصت دراسة شملت 1.300 مشارك أجرتها جامعة "Oxford" مؤخرا إلى أن الأشخاص الذين استخدموا روبوتات الذكاء الاصطناعي للبحث عن حالات صحية افتراضية لم يتخذوا قرارات أفضل من أولئك الذين اعتمدوا على البحث عبر الإنترنت أو على حكمهم الشخصي. وعندما قُدمت لروبوتات الدردشة سيناريوهات طبية مكتوبة ومتكاملة، نجحت في تحديد الحالة الأساسية بشكل صحيح في 95 في المئة من الحالات. وقال آدم مهدي، المؤلف الرئيسي للدراسة من "معهد Oxford للإنترنت": "هذه لم تكن المشكلة. المشكلة ظهرت أثناء التفاعل مع المشاركين الحقيقيين". ووجد مهدي وفريقه عدة مشكلات في التواصل؛ فكثيرا ما كان الناس لا يقدمون لروبوتات الدردشة المعلومات اللازمة لتحديد المشكلة الصحية بدقة، وفي المقابل كانت أنظمة الذكاء الاصطناعي كثيرا ما تقدم مزيجا من المعلومات الجيدة والسيئة، وكان المستخدمون يجدون صعوبة في التمييز بينهما. وأجريت الدراسة في عام 2024، ولم تستخدم أحدث نسخ روبوتات الدردشة، بما في ذلك عروض جديدة مثل "ChatGPT Health". وفي ضوء هذه الحدود، يرى واكتر أن قدرة روبوتات الدردشة على طرح أسئلة متابعة واستخلاص التفاصيل الأساسية من المستخدمين هي أحد المجالات التي تحتاج إلى تحسين. وقال: "أعتقد أن هذه الأدوات ستصبح فعلا جيدة عندما تصبح أكثر شبها بالطبيب في طريقة الحوار ذهابا وإيابا مع المرضى". وحتى ذلك الحين، يمكن تعزيز الثقة بالمعلومات من خلال استشارة أكثر من روبوت دردشة، على غرار طلب رأي ثان من طبيب آخر. ويقول واكتر: "أضع أحيانا المعلومات في \"ChatGPT\" ثم في \"Gemini\"، أداة الذكاء الاصطناعي من \"Google\"، وعندما يتفقان أشعر بثقة أكبر في أن هذه هي الإجابة الصحيحة".
المصدر:
يورو نيوز