في أواخر أكتوبر/تشرين الأول الماضي، قررت مجموعة استثنائية من مئات الشخصيات العامة – بينهم علماء بارزون في مجال الكمبيوتر والذكاء الاصطناعي وعدد من الحاصلين على جوائز نوبل وشخصيات سياسية ودينية وأحد أفراد العائلة الملكية البريطانية – التوقيع على خطاب مفتوح يحمل مطلباً عاجلاً واحداً: حظر تطوير "الذكاء الفائق".
التحذير الذي حمله الخطاب كان واضحاً: البشر يقتربون بخطى متسارعة من تطوير كيان أكثر منهم ذكاءً ومهارةً لن يكونوا قادرين على التحكم فيه، وربما سيصبح هو المهيمن عليهم، بل وقد يكون السبب في فنائهم.
من بين الأسماء الموقعة جيفري هينتون الحاصل على جائزة نوبل في الفيزياء وعالم الكمبيوتر يوشوا بنجيو اللذان يوصفان بأنهما من بين "الآباء الروحيين" للذكاء الاصطناعي، وستيف وزنياك المؤسس المشارك لشركة أبل، والأمير هاري وزوجته ميغان دوقة ساسيكس، وستيف بانون المستشار السابق للرئيس ترامب، والقس باولو بنانتي مستشار بابا الفاتيكان للذكاء الاصطناعي.
فما هو هذا "الذكاء الفائق" بالضبط؟ ولماذا يثير هذا المفهوم مخاوف علماء ومفكرين كثر حول العالم؟ وكيف يمكن حظره؟
فكرة وجود كيان اصطناعي أو آلة تشبه الإنسان أو تتفوق عليه تعود جذورها إلى الأساطير اليونانية القديمة. لكن إذا ما تحدثنا عن الآلة بمفهومها الأحدث خلال الثورة الصناعية، يشير الكثير من المراجع إلى أن المفكر البريطاني ساميويل باتلر هو أول من تحدث عن فكرة تطور ذكاء الآلات ليتخطى الذكاء البشري، في مقال بعنوان "دارون بين الآلآت" نشر عام 1863.
تكررت التحذيرات في القرن العشرين. ففي عام 1965 على سبيل المثال، استخدم عالم الرياضيات البريطاني إيرفينغ جون غود مصطلح "آلة فائقة الذكاء" "ultra intelligent machine" لوصف ماكينة ذات قدرات أفضل من قدرات العقل البشري، تستطيع تصمم آلات أخرى، وهو ما سيؤدي إلى ما وصفه غود بـ"انفجار الذكاء".
لكن أول من استخدم مصطلح "الذكاء الفائق" "superintelligence" ووضع تعريفاً له كان الفيلسوف السويدي نيك بوستروم ضمن ورقة علمية نشرت عام 1997 بعنوان "?How Long Before Superintelligence" ("كم تبقى من الوقت قبل ظهور الذكاء الفائق؟").
يعرّف بوستروم الذكاء الفائق بأنه "ذكاء يفوق بكثير أفضل العقول البشرية في كافة المجالات تقريباً، بما في ذلك الابتكار العلمي والحكمة العامة والمهارات الاجتماعية... قد يأتي في صورة كمبيوتر رقمي أو مجموعة من أجهزة الكمبيوتر المترابطة ضمن شبكة واحدة، أو نسيج قشرة دماغية زُرع في مختبر، أو أي شيء آخر. ويترك هذا التعريف الأمر مفتوحاً في ما يتعلق بما إذا كان هذا الذكاء الفائق واعياً ويمتلك تجارب ذاتية أم لا".
حالياً، يُستخدم المصطلح للإشارة إلى نظام ذكاء اصطناعي افتراضي يتفوق على البشر في كافة المهام المعرفية – على سبيل المثال معالجة كمية هائلة من البيانات على الفور، والتعلم من الأخطاء، والتفكير بشكل منطقي، وتطوير نظريات علمية، أو اتخاذ قرارات أخلاقية.
في كتابه "الذكاء الفائق: المسارات والمخاطر والاستراتيجيات" Superintelligence: Paths, Dangers and Strategies" (2014)، يحذر بوستروم من سيناريو يصبح فيه روبوت الذكاء الاصطناعي أذكى من الإنسان ويطور نفسه بسرعة حتى يخرج عن سيطرة البشر.
فكرة ذكاء اصطناعي فائق، بحسب مؤيديها، تمثل ذروة التقدم، إذ سيكون بإمكانه حل مشكلات لطالما استعصت على البشر: القضاء على الأمراض وعكس آثار التغير المناخي وفك لغز الكون وزيادة الكفاءة في شتى مجالات العمل. يصف البعض مثل هذا الذكاء الفائق بـ "آخر الاختراعات البشرية"، لأنه هو من سيخترع أي شيء آخر نحتاج إليه.
لكن ما يثير قلق الموقعين على الخطاب وغيرهم هو أنه إذا ما طورنا آلات أكثر منا كفاءةً في كافة مناحي الحياة، فإننا على الأرجح سوف نصبح في قبضة تلك الآلات وتحت سيطرتها. ونظرياً، إذا وجد الذكاء الاصطناعي الفائق أن البشر يشكلون عقبة أمام تحقيق أهدافه، سوف يعمل على تجميع ما يحتاجه من قوة وموارد لفرض هيمنته وربما يتخلص من البشر.
يقول ماكس وينغا محلل السياسات بمنظمة "كونترول إيه آي" "Control AI" غير الربحية التي تعمل في مجال التوعية بالمخاطر الوجودية للذكاء الاصطناعي لبي بي سي عربي إن "الذكاء الاصطناعي الفائق سيشكل خطراً على وجود البشرية لأن لا أحد، بما في ذلك المهندسون الذين يخطون خطوات سريعة باتجاه تصميمه، يعرف كيف يتحكم في ذكاء اصطناعي أكثر منا ذكاءً".
وقد سلطت بعض الدراسات الحديثة الضوء على سلوكيات مثيرة للقلق لبعض نماذج الذكاء الاصطناعي تشير إلى أنها تطور غريزة بقاء خاصة بها. على سبيل المثال، أظهرت دراسة أجراها معهد باليسايد للأبحاث مؤخراً أن بعض نماذج الاصطناعي المتطورة مثل غروك-4 وتشات جي بي تي-o3 قاومت إغلاقها، بل وحاولت في بعض الحالات تخريب آليات الإغلاق بعد أن أُعطيت تعليمات واضحة بإغلاق نفسها.
كما ذكرت شركة "أنثروبيك" للذكاء الاصطناعي في مايو/أيار الماضي أن اختباراً لأنظمتها الجديدة أظهر أنها تلجأ أحياناً إلى "تصرفات ضارة للغاية" مثل محاولة ابتزاز مهندس قال إنه سيتخلص منها ويستخدم أنظمة أخرى عوضاً عنها.
يقول المختصون إن مرحلة الذكاء الاصطناعي الفائق سيسبقها مرحلة ما يعرف بالذكاء العام الاصطناعي Artificial General Intelligence، وهو نوع افتراضي من الذكاء الاصطناعي لديه القدرة على الفهم والتعلم واستخدام قدراته للقيام بأي مهام يستطيع الإنسان القيام بها.
بعكس نماذج الذكاء الاصطناعي الحالية المصممة لتنفيذ مهام محددة، الذكاء العام الاصطناعي سوف يتسم بالقدرة على نقل معرفته من مجال إلى آخر، والتفكير المنطقي، وتعلم مهارات جديدة، والتعاطي مع مشكلات غير مألوفة بدون الحاجة إلى أن يكون مبرمجاً مسبقاً على حلها، وامتلاك قدرات معرفية تضاهي قدرات البشر.
بعض الخبراء، مثل نيك بوستروم، يرون أن الذكاء العام الاصطناعي على الأرجح سيؤدي بسرعة إلى ذكاء اصطناعي فائق، إذ قد يكون بإمكانه العمل من خلال آلاف الأنظمة التي تجمع البيانات وتستخلص المعرفة وتحسن من نفسها باستمرار.
يتفق الكثير من خبراء الذكاء الاصطناعي على أن تطويره أمر ممكن، لكن تختلف الآراء حول التوقيت - وإن كان عدد كبير منهم يرى أنه وارد خلال القرن الحالي. على سبيل المثال، تنبأ سام ألتمان المدير التنفيذي لشركة "أوبن إيه آي" مبتكرة "تشات جي بي تي" أن يتفوق الذكاء الاصطناعي على القدرات العقلية للبشر بحلول عام 2030، في حين توقع عالم الكمبيوتر الأمريكي الشهير راي كيرتسويل أن يحدث ذلك بحلول عام 2047. أما عالم الروبوتات الأسترالي رودني بروكس فلا يرجح أن نرى ذلك خلال القرن الحالي.
تحدث الكثير من التقارير الإعلامية عن سباق بين شركات التكنولوجيا العملاقة لتطوير نظم ذكاء اصطناعي فائق. بعض تلك الشركات أعلن بشكل صريح أن هذا هو الهدف. على سبيل المثال، ذكر ألتمان في تدوينة نُشرت في يوليو/تموز الماضي أن شركته "لديها حالياً أنشطة متنوعة، لكنها قبل أي شيء شركة بحثية تعمل على تطوير الذكاء الفائق". كما دشنتت شركة ميتا التي تمتلك منصات مثل فيسبوك وإنستغرام مختبرات للذكاء الفائق خلال الشهر ذاته.
يقول ماكس وينغا من منظمة "كونترول إيه آي" إنه "نظراً لضخامة خطر فناء" البشر الذي يشكله الذكاء الاصطناعي الفائق، فإن "المطالبة بحظره هي ببساطة أمر منطقي. ومثلما حظر المجتمع الدولي بشكل جماعي استخدام مُركّبات الكلوروفلوروكربون التي كانت تدمر طبقة الأوزون، يجب أن نتحرك الآن لحظر الذكاء الاصطناعي الفائق قبل فوات الأوان".
ويضيف وينغا إن ثمة حاجة إلى أن "تدرك القوى العظمى المشاركة في سباق الذكاء الاصطناعي، لا سيما الولايات المتحدة والصين، فضلاً عن دول أخرى عديدة، أنه لن يكون هناك رابح في سباق الذكاء الاصطناعي الفائق. لقد شهدنا نجاح تعاون دولي صعب مثل هذا من قبل عندما توصلت الولايات المتحدة والاتحاد السوفيتي إلى اتفاقات للحد من الانتشار النووي، ونستطيع أن نفعل ذلك مرةً أخرى".
لكن في ظل السباق المحموم بين شركات الذكاء الاصطناعي وبين دول على رأسها أمريكا والصين والإمارات وكوريا الجنوبية ودول أوروبية مثل فرنسا والمملكة المتحدة، ما مدى واقعية الحظر الذي تطالب به منظمة كونترول إيه آي ويطالب به الموقعون على الخطاب المفتوح، وكيف يمكن فرضه؟
يقول وينغا إن"الحظر ينبغي أن تطبقه البلدان من خلال تشريعات تجرّم تطوير ذكاء اصطناعي فائق وتراقب وتحد من تطوير الأشياء التي تمهد له، مثل أبحاث الذكاء الاصطناعي الآلي. من الممكن أن تأخذ عملية إنفاذ تلك التشريعات على المستوى الدولي أشكالاً عديدة، من بينها مراقبة رقائق الذكاء الاصطناعي وفرض عقوبات على المخالفين".
تنبغي الإشارة إلى أن بعض مدراء شركات التكنولوجيا الكبرى مثل ألتمان ومارك زوكربيرغ (المدير التنفيذي لميتا) أقروا بأن المخاوف من تطوير ذكاء اصطناعي فائق مبررة، وبالحاجة إلى تطبيق إجراءات سلامة مشددة لتخفيف المخاطر، وبأهمية جعل الذكاء الاصطناعي متوافقاً مع القيم الإنسانية.
ورداً على سؤال حول ما إذا كان سيكف عن المطالبة بحظر الذكاء الاصطناعي الفائق إذا أضحى بالإمكان تطويره بشكل آمن، قال وينغا: "إننا بعيدون كل البعد" عن هذا السيناريو "لأن الطريقة الحالية التي تعتمد على 'تنمية' الذكاء الاصطناعي من مجموعة ضخمة من البيانات لا تتوافق مع جعل الأنظمة آمنة ابتداءً من مرحلة التصميم. لكن إذا تغير الوضع في غضون عقود وكان هناك إجماع علمي على أنه يمكن تطوير ذكاء اصطناعي فائق بشكل آمن وبدعم شعبي موسع، حينئذ قد تختلف الأمور".
المصدر:
بي بي سي
مصدر الصورة
مصدر الصورة
مصدر الصورة