في عصر يلجأ فيه الملايين إلى الإنترنت يوميا للبحث عن إجابات للأسئلة الصحية، أصبحت الحاجة إلى معلومات طبية موثوقة ودقيقة أكثر إلحاحًا من أي وقت مضى.
ومع تزايد حجم المحتوى الطبي المتاح عبر الشبكة، تواجه منصات البحث، مثل " غوغل "، تحديًا كبيرًا في تحقيق التوازن بين توفير إجابات سريعة وضمان دقتها العلمية.
ويأتي هنا دور الذكاء الاصطناعي كأداة حاسمة لمعالجة هذه المعضلة، إذ تطور "غوغل" تقنيات مبتكرة لفهم الأسئلة الطبية المعقدة، وتصفية المصادر غير الموثوقة، والتعاون مع الخبراء الطبيين لبناء نظام بحث أكثر أمانًا وموثوقية.
دمجت "غوغل" منذ سنوات نماذج الذكاء الاصطناعي في خدماتها الصحية، بدءًا من تحليل صور الأشعة، مرورًا بالتنبؤ بمخاطر الأمراض، ووصولًا إلى تحسين جودة المعلومات الطبية.
ولكن التطورات الجديدة تركز بشكل خاص على فهم نية المستخدم حين يطرح سؤالًا صحيا، والرد عليه بإجابات مبنية على بيانات موثوقة، بل صياغتها بأسلوب مفهوم وسهل.
وتتعلق نسبة كبيرة من عمليات البحث اليومية بالصحة. وفي هذا السياق، تصبح دقة الفهم وتحديد المصدر أمرًا بالغ الحساسية، وخصوصًا عندما تتعلق الأسئلة بحالات حرجة أو أمراض مزمنة أو نصائح علاجية.
تعتمد "غوغل" على نماذج لغوية متقدمة، ولكنها لا تكتفي بالتحليل اللغوي المعتاد، بل تخضع الأسئلة الطبية لسلسلة من العمليات التي تهدف إلى فهم القصد، وتصنيف المستوى الطبي للسؤال، وتحديد حساسيته من حيث كونه يتطلب تدخلًا متخصصًا أو مجرد معلومة عامة. ويأتي هنا دور تقنيات معالجة اللغة الطبيعية من أجل تحليل الأسئلة الطبية التي يكتبها المستخدمون بأشكال مختلفة.
وفي عام 2019، قدمت "غوغل" النموذج اللغوي "بيرت" (BERT) الذي يحسّن فهم السياق في الجملة من خلال تحليل علاقة الكلمات ببعضها بدلًا من معالجتها بشكل منفرد.
ويعد هذا النموذج مفيدًا في تفسير الأسئلة الطبية التي تحتوي على مصطلحات متخصصة أو الأسئلة التي تكتب باللغة العامية.
وعندما يبحث شخص عن "ألم في الصدر مع دوخة"، يحدد النموذج اللغوي العلاقة بين الأعراض ويقترح أسبابًا محتملة، مثل وجود مشاكل قلبية أو انخفاض ضغط الدم، بدلًا من تقديم نتائج عامة.
ولا يقتصر دوره على استرجاع صفحات تحتوي على كلمات مطابقة، بل على فهم القصد الحقيقي خلف السؤال وتفسير السياق وتحليل النية بطريقة أقرب إلى التفكير البشري.
كذلك طوّرت "غوغل" أنظمة ذكاء اصطناعي قادرة على التمييز بين الاستخدامات المختلفة للمصطلح الطبي نفسه.
فعلى سبيل المثال، فإن كلمة "ورم" قد تشير إلى حالة خطيرة أو إلى ورم حميد، حسب السياق. وتعتمد الخوارزميات على تحليل آلاف الوثائق الطبية والدراسات العلمية لتعلم الفروق الدقيقة.
وكشفت "غوغل" عن نموذج "ميد-بالم" (Med-PaLM) المدرب خصيصًا على بيانات طبية، ويعدّ أحد النماذج الأولى القادرة على الإجابة عن أسئلة طبية معقدة بدقة توازي دقة الأطباء البشر في بعض الاختبارات.
ويستطيع هذا النموذج معالجة أشكال متنوعة من البيانات الطبية، بما في ذلك النصوص والصور، مثل الأشعة السينية والمسح الضوئي، وحتى المعلومات الجينية، مما يتيح فهمًا أكثر شمولًا لصحة المريض.
لا شك في أن واحدة من أخطر الإشكالات التي تواجه المستخدم اليوم هي تداخل المعلومات الطبية الصحيحة مع المحتوى غير الدقيق أو المضلل أو حتى الضار.
ومن أجل مواجهة هذا التحدي، تلعب الخوارزميات الجديدة دورًا محوريا في غربلة المحتوى وتصنيفه بالاعتماد على أنظمة تصنيف المصادر.
ولا تنظر هذه الأنظمة إلى شهرة الموقع أو عدد الزيارات فقط، بل تقيّم جملة مؤشرات، مثل وجود مراجعة طبية واضحة للمحتوى، والكشف عن اسم المؤلف وخبرته، وذكر المصادر العلمية الأصلية، وتوافق المعلومات مع الإرشادات الطبية الموصى بها عالميا.
وقد أدخلت الشركة تحسينات جوهرية على الخوارزميات التي تستخدم عند التعامل مع المحتوى الصحي، لتصنيف مدى ثقة المستخدم بالمعلومة قبل أن تظهر له.
وتعطي "غوغل" الأولية للمحتوى الذي يُحدّث وفقًا لأحدث الأبحاث الطبية، في حين تكتشف الخوارزميات المحتوى الذي يعتمد على نظريات مؤامرة أو ادعاءات غير مدعومة بدراسات.
كما تعتمد "غوغل" لمراجعة المحتوى الطبي على تعاونها مع منظمات، مثل "منظمة الصحة العالمية" (WHO) و"مايو كلينك" (Mayo Clinic) و"المركز الأميركي لمكافحة الأمراض" (CDC).
لا يمكن للذكاء الاصطناعي وحده أن يحل محل الخبرة البشرية في المجال الطبي. لذلك، تعتمد "غوغل" على شراكات إستراتيجية مع أطباء وباحثين لضمان توافق تقنياتها مع الممارسات السريرية الحالية.
وقد وظفت الشركة أطباء واختصاصيين يعملون بشكل مباشر مع فرق تطوير الذكاء الاصطناعي لمراجعة النتائج وتقديم ملاحظات علمية تسهم في تدريب النماذج.
وتستخدم هذه المراجعات لاحقًا لتحسين أداء أنظمة البحث وضبط استجابات الذكاء الاصطناعي بناء على الملاحظات الإكلينيكية الفعلية.
وساعدت هذه الشراكات في تقليل ظهور المعلومات غير الدقيقة بنسبة كبيرة في بعض المواضيع الطبية العالية الحساسية، مثل السرطان والاكتئاب وصحة الأطفال.
وبالتعاون مع جامعات مثل " هارفارد " و "ستانفورد"، تطور "غوغل" أدوات تساعد الأطباء في تشخيص الأمراض عبر دمج الذكاء الاصطناعي مع البيانات السريرية.
وتتيح "غوغل" لمنظمات طبية إمكانية تحديث المحتوى الطبي مباشرة في قاعدة بياناتها، بما يضمن وصول المستخدمين إلى أحدث التوصيات.
رغم كل هذا التقدم، تعترف "غوغل" أن الذكاء الاصطناعي ليس بديلًا عن التشخيص الطبي.
وتحرص الشركة في جميع النتائج التي تتعلق بالصحة على إضافة عبارات تحذيرية تؤكد ضرورة مراجعة الطبيب المختص وعدم الاعتماد الكلي على المعلومات المقدمة.
كما وضعت سياسات تمنع استخدام منصاتها للإعلانات التي تروّج لعلاجات غير مثبتة علميا، أو التي تستغل مخاوف المرضى. وتُراجع هذه السياسات دوريا بالتعاون مع جهات رقابية وصحية عالمية.
لا تزال جهود "غوغل" تواجه انتقادات، منها الخصوصية والتحيز الخوارزمي والمسؤولية القانونية والأخطاء والهلاوس التي قد تنتج عن الأنظمة الجديدة.
ويتطلب بناء النماذج الطبية الوصول إلى بيانات حساسة للمرضى، ويثير مخاوف قانونية وأخلاقية. وحذر بعض المراقبين من أن "غوغل" قد تستخدم بيانات صحية من دون موافقة المرضى.
وإذا كانت البيانات المستخدمة في التدقيق تمثل فئة ديمغرافية معينة، فإن ذلك يعني إهمال احتياجات مجموعات أخرى.
كما أن هناك نقاشات مستمرة حول من يتحمل مسؤولية الخطأ في التشخيص الافتراضي وتبعاته الصحية.
ختامًا، بين خوارزميات تصفية المحتوى، وفهم السياق الطبي، والتعاون مع الخبراء، تضع "غوغل" الذكاء الاصطناعي في قلب إستراتيجيتها لتقديم تجربة بحث صحي أكثر موثوقية وإنسانية.
وتطمح الشركة إلى أن تصبح شريكًا معرفيا في الرعاية الصحية الرقمية، مستندة إلى الخوارزميات الدقيقة، والمصادر الموثوقة، والشراكات مع القطاع الطبي.