ازداد الحديث في الآونة الأخيرة عن المخاطر التي تحملها تقنيات الذكاء الاصطناعي على العديد من القطاعات، سواء كانت قطاعات الأمن السيبراني أو حتى سوق العمل والوظائف المتاحة للبشر واستبدال الذكاء الاصطناعي بهم.
ولكن تهمل هذه الأحاديث نوعا آخر من المخاطر التي يحملها الذكاء الاصطناعي ويمكنها التأثير على العالم والحضارة كما نعرفها اليوم؛ فوفق تقرير نشرته مجلة "نيتشر" (Nature) العلمية البريطانية، فإن الذكاء الاصطناعي قادر على تطوير فيروسات حيوية وأمراض لا يعرفها الإنسان ولا يستطيع مواجهتها بالطرق التقليدية.
وبينما قد تبدو هذه الفكرة أقرب إلى أفلام الخيال العلمي التي يثور فيها الذكاء الاصطناعي على صنّاعه وينتج مرضا لا يمكن للبشر مقاومته للقضاء على البشرية، إلا أنها اليوم أصبحت أقرب إلى الواقع كحال العديد من التقنيات التي كانت تبدو بعيدة المنال في السابق.
وتثبت دراسات عديدة أن المخاوف من قدرة الذكاء الاصطناعي على إنتاج أمراض وفيروسات وسموم غير معروفة للإنسان في محلها، إذ تمكن الذكاء الاصطناعي الذي طورته معامل "غوغل ديب مايند" من توقع آلية وتركيب البروتينات الحيوية المختلفة، وهو ما جعل الشركة تفوز بجائزة نوبل للكيمياء في عام 2024 ويثبت أن الذكاء الاصطناعي قادر على الوصول إلى ابتكارات غير مسبوقة في المجالات الطبية والكيميائية.
يشير تقرير "نيتشر" إلى نوع من الرخويات البحرية القادر على إنتاج "سموم مخروطية" متنوعة التركيبات والهياكل، إذ يعمل بعضها سموما قاتلة للجهاز العصبي دون وجود ترياق لها، والبعض يعمل مركبات أساسية في الأدوية المختلفة.
وبسبب هذه الخطورة الكبيرة، أصبحت الدراسات والأبحاث المتعلقة بالسموم المخروطية محظورة في الكثير من الدول حول العالم، وتخضع لقيود صارمة في مجموعة أخرى من الدول.
لذلك، عندما أبلغ فريق علمي صيني في عام 2024 عن تطويره لأداة ذكاء اصطناعي قادرة على تصميم السموم المخروطية، أثار ذلك حفيظة العديد من الأوساط العلمية لدرجة أن موظفا كبيرا في الحكومة الأمريكية وصف هذه الأداة بأنها خطر مباشر على الأمن البيولوجي العالمي.
وبينما يرى العلماء وفق تقرير "نيتشر" أن المخاطر الناتجة عن مثل هذه الأدوات ضئيلة للغاية نظرا لتعقيد آلية صناعة السموم المخروطية وحاجتها إلى معدات كبيرة ومكلفة، فإن خوف العلماء وقلقهم من مجرد الاحتمالية الضئيلة يعكس حجم الخطر الذي تحمله هذه التقنية.
وتدفع هذه المخاوف المجتمعات الدولية لطرح سؤال جوهري يؤثر في تطور الذكاء الاصطناعي ودوره في البحث العلمي، إذ يتساءل الخبراء عن حجم الفوائد الناتجة عن مثل هذه الأبحاث مقارنة بالأضرار التي قد تعود على البشرية.
يقول جيمس بلاك، باحث الأمن البيولوجي للذكاء الاصطناعي والباحث الزائر في جامعة جونز هوبكنز في بالتيمور بماريلاند، إن هناك قلقين رئيسيين من علاقة الذكاء الاصطناعي والأسلحة البيولوجية:
ومن جانبه، يرى بلومفيلد، أستاذ القانون الذي يدرس الأمن البيولوجي في جامعة فوردهام في مدينة نيويورك، أن أدوات الذكاء الاصطناعي الحالية يمكنها التنبؤ بتطور الفيروسات والعبث فيه لتنتج أمراضاً فيروسية جديدة أكثر خطورة دون تطوير فيروسات جديدة.
في سبتمبر/أيلول 2025، نشرت مجلة "نيتشر" تقريرا منفصلا عن نجاح مجموعة من العلماء في بناء أول فيروس في العالم باستخدام الذكاء الاصطناعي، أي أن الذكاء الاصطناعي تدخل بشكل مباشر في تصنيع التركيبة الجينية للفيروس.
ولا تشكل صناعة التركيبة الجينية النظرية للفيروسات في المختبرات مصدر خوف رئيسي أو حقيقي، فهي في النهاية تظل أمرا نظريا بحتا، ولكن الخطر الحقيقي هو أن 5% من هذه الفيروسات نجح في إصابة بكتيريا "إي كولاي" معمليا.
ويعني هذا أن الفيروسات التي أنتجها الذكاء الاصطناعي عام 2025 كانت قادرة على العمل وتحقيق المرجو منها بنسبة 5%، وذلك قبل ظهور النماذج المتطورة الحديثة التي نملكها اليوم بعد أقل من عام وقبل النماذج الأكثر تطورا والذكاء الاصطناعي العام الذي تسعى الشركات لإنتاجه في السنوات المقبلة.
ودفعت هذه المخاوف مجموعة مكونة من 100 عالم في مراكز بحثية مرموقة مثل جامعة جونز هوبكنز، وجامعة أكسفورد، وجامعة ستانفورد، وجامعة كولومبيا، وجامعة نيويورك، للمطالبة بوضع قيود مباشرة على الأبحاث البيولوجية المعززة بالذكاء الاصطناعي وحجب مجموعات البيانات المرتبطة بالأمراض المعدية حتى لا يستطيع الذكاء الاصطناعي استخدامها لتطوير فيروسات قاتلة، حسب تقرير وكالة "أكسيوس" (Axios) الإخبارية العالمية.
ويؤكد تقرير "أكسيوس" أن هذه المجموعة من العلماء يرون أن الوسيلة الأفضل لحماية البشرية من مخاطر الفيروسات المطورة من قبل الذكاء الاصطناعي هي حجب البيانات الخاصة بالفيروسات القاتلة عنه، مما يقطع عليه طريق التعلم من البداية.
كما يجادل بعض العلماء بأن الطريقة الأفضل لحماية البشرية من مخاطر الأسلحة البيولوجية المطورة من قبل الذكاء الاصطناعي هي بتطوير نماذج ذكاء اصطناعي دفاعية استباقية قادرة على إنتاج أدوات دفاعية تقف أمام أسلحة الذكاء الاصطناعي، وفق تقرير "نيتشر" الأخير.
ولكن تظل كل هذه الجهود نظرية وخاضعة لأرباح الشركات الرأسمالية التي تتسابق لتطوير تقنيات الذكاء الاصطناعي، لذلك يظل السؤال الجوهري عالقا دون إجابة: ماذا سنفعل إن طور الذكاء الاصطناعي مرضا لا يمكننا مواجهته؟
المصدر:
الجزيرة
مصدر الصورة
مصدر الصورة