آخر الأخبار

الذكاء الاصطناعي قادر على صنع "مرض" لا يمكن للبشر مجابهته

شارك

ازداد الحديث في الآونة الأخيرة عن المخاطر التي تحملها تقنيات الذكاء الاصطناعي على العديد من القطاعات، سواء كانت قطاعات الأمن السيبراني أو حتى سوق العمل والوظائف المتاحة للبشر واستبدال الذكاء الاصطناعي بهم.

ولكن تهمل هذه الأحاديث نوعا آخر من المخاطر التي يحملها الذكاء الاصطناعي ويمكنها التأثير على العالم والحضارة كما نعرفها اليوم؛ فوفق تقرير نشرته مجلة "نيتشر" (Nature) العلمية البريطانية، فإن الذكاء الاصطناعي قادر على تطوير فيروسات حيوية وأمراض لا يعرفها الإنسان ولا يستطيع مواجهتها بالطرق التقليدية.

وبينما قد تبدو هذه الفكرة أقرب إلى أفلام الخيال العلمي التي يثور فيها الذكاء الاصطناعي على صنّاعه وينتج مرضا لا يمكن للبشر مقاومته للقضاء على البشرية، إلا أنها اليوم أصبحت أقرب إلى الواقع كحال العديد من التقنيات التي كانت تبدو بعيدة المنال في السابق.

وتثبت دراسات عديدة أن المخاوف من قدرة الذكاء الاصطناعي على إنتاج أمراض وفيروسات وسموم غير معروفة للإنسان في محلها، إذ تمكن الذكاء الاصطناعي الذي طورته معامل "غوغل ديب مايند" من توقع آلية وتركيب البروتينات الحيوية المختلفة، وهو ما جعل الشركة تفوز بجائزة نوبل للكيمياء في عام 2024 ويثبت أن الذكاء الاصطناعي قادر على الوصول إلى ابتكارات غير مسبوقة في المجالات الطبية والكيميائية.

ابتكار سموم مخروطية غير مسبوقة

يشير تقرير "نيتشر" إلى نوع من الرخويات البحرية القادر على إنتاج "سموم مخروطية" متنوعة التركيبات والهياكل، إذ يعمل بعضها سموما قاتلة للجهاز العصبي دون وجود ترياق لها، والبعض يعمل مركبات أساسية في الأدوية المختلفة.

وبسبب هذه الخطورة الكبيرة، أصبحت الدراسات والأبحاث المتعلقة بالسموم المخروطية محظورة في الكثير من الدول حول العالم، وتخضع لقيود صارمة في مجموعة أخرى من الدول.

مصدر الصورة بعض الرخويات البحرية تنتج سموما قاتلة للإنسان دون ترياق والذكاء الاصطناعي يستطيع محاكاتها (وكالات)

لذلك، عندما أبلغ فريق علمي صيني في عام 2024 عن تطويره لأداة ذكاء اصطناعي قادرة على تصميم السموم المخروطية، أثار ذلك حفيظة العديد من الأوساط العلمية لدرجة أن موظفا كبيرا في الحكومة الأمريكية وصف هذه الأداة بأنها خطر مباشر على الأمن البيولوجي العالمي.

إعلان

وبينما يرى العلماء وفق تقرير "نيتشر" أن المخاطر الناتجة عن مثل هذه الأدوات ضئيلة للغاية نظرا لتعقيد آلية صناعة السموم المخروطية وحاجتها إلى معدات كبيرة ومكلفة، فإن خوف العلماء وقلقهم من مجرد الاحتمالية الضئيلة يعكس حجم الخطر الذي تحمله هذه التقنية.

وتدفع هذه المخاوف المجتمعات الدولية لطرح سؤال جوهري يؤثر في تطور الذكاء الاصطناعي ودوره في البحث العلمي، إذ يتساءل الخبراء عن حجم الفوائد الناتجة عن مثل هذه الأبحاث مقارنة بالأضرار التي قد تعود على البشرية.

أسوأ سيناريو

يقول جيمس بلاك، باحث الأمن البيولوجي للذكاء الاصطناعي والباحث الزائر في جامعة جونز هوبكنز في بالتيمور بماريلاند، إن هناك قلقين رئيسيين من علاقة الذكاء الاصطناعي والأسلحة البيولوجية:


* الأول: هو قدرة الأفراد العاملين في المختبرات المنزلية على تطوير أسلحة بيولوجية بالمكونات الموجودة في المنزل مثل الجمرة الخبيثة كما جاء في تقرير "نيتشر".
* والثاني: هو حجم الضرر الذي قد تحدثه الجهات أو الدول التي تملك موارد أكبر كثيراً وتستطيع الوصول إلى البرمجيات البيولوجية المخصصة لتصميم الأدوية والبروتينات.

ومن جانبه، يرى بلومفيلد، أستاذ القانون الذي يدرس الأمن البيولوجي في جامعة فوردهام في مدينة نيويورك، أن أدوات الذكاء الاصطناعي الحالية يمكنها التنبؤ بتطور الفيروسات والعبث فيه لتنتج أمراضاً فيروسية جديدة أكثر خطورة دون تطوير فيروسات جديدة.

مخاوف نظرية أم أقرب إلى الواقع؟

في سبتمبر/أيلول 2025، نشرت مجلة "نيتشر" تقريرا منفصلا عن نجاح مجموعة من العلماء في بناء أول فيروس في العالم باستخدام الذكاء الاصطناعي، أي أن الذكاء الاصطناعي تدخل بشكل مباشر في تصنيع التركيبة الجينية للفيروس.

ولا تشكل صناعة التركيبة الجينية النظرية للفيروسات في المختبرات مصدر خوف رئيسي أو حقيقي، فهي في النهاية تظل أمرا نظريا بحتا، ولكن الخطر الحقيقي هو أن 5% من هذه الفيروسات نجح في إصابة بكتيريا "إي كولاي" معمليا.

ويعني هذا أن الفيروسات التي أنتجها الذكاء الاصطناعي عام 2025 كانت قادرة على العمل وتحقيق المرجو منها بنسبة 5%، وذلك قبل ظهور النماذج المتطورة الحديثة التي نملكها اليوم بعد أقل من عام وقبل النماذج الأكثر تطورا والذكاء الاصطناعي العام الذي تسعى الشركات لإنتاجه في السنوات المقبلة.

مصدر الصورة نسبة نجاح الفيروسات المصنوعة من الذكاء الاصطناعي لم تتجاوز 5% (شترستوك)

ودفعت هذه المخاوف مجموعة مكونة من 100 عالم في مراكز بحثية مرموقة مثل جامعة جونز هوبكنز، وجامعة أكسفورد، وجامعة ستانفورد، وجامعة كولومبيا، وجامعة نيويورك، للمطالبة بوضع قيود مباشرة على الأبحاث البيولوجية المعززة بالذكاء الاصطناعي وحجب مجموعات البيانات المرتبطة بالأمراض المعدية حتى لا يستطيع الذكاء الاصطناعي استخدامها لتطوير فيروسات قاتلة، حسب تقرير وكالة "أكسيوس" (Axios) الإخبارية العالمية.

ويؤكد تقرير "أكسيوس" أن هذه المجموعة من العلماء يرون أن الوسيلة الأفضل لحماية البشرية من مخاطر الفيروسات المطورة من قبل الذكاء الاصطناعي هي حجب البيانات الخاصة بالفيروسات القاتلة عنه، مما يقطع عليه طريق التعلم من البداية.

إعلان

كما يجادل بعض العلماء بأن الطريقة الأفضل لحماية البشرية من مخاطر الأسلحة البيولوجية المطورة من قبل الذكاء الاصطناعي هي بتطوير نماذج ذكاء اصطناعي دفاعية استباقية قادرة على إنتاج أدوات دفاعية تقف أمام أسلحة الذكاء الاصطناعي، وفق تقرير "نيتشر" الأخير.

ولكن تظل كل هذه الجهود نظرية وخاضعة لأرباح الشركات الرأسمالية التي تتسابق لتطوير تقنيات الذكاء الاصطناعي، لذلك يظل السؤال الجوهري عالقا دون إجابة: ماذا سنفعل إن طور الذكاء الاصطناعي مرضا لا يمكننا مواجهته؟

الجزيرة المصدر: الجزيرة
شارك

أخبار ذات صلة



حمل تطبيق آخر خبر

إقرأ أيضا