من المتوقع أن يُنفق على مستوى العالم نحو 3 تريليونات دولار على مراكز البيانات التي تدعم الذكاء الاصطناعي من الآن وحتى عام 2029، وهو رقم ضخم يصعب تخيله.
صدر هذا التقدير عن بنك الاستثمار مورغان ستانلي، الذي يضيف أن نحو نصف هذا المبلغ سيُنفق على تكاليف البناء، والنصف الآخر على الأجهزة الباهظة الداعمة لثورة الذكاء الاصطناعي.
ولإدراك حجم الرقم، فإنه يعادل تقريباً حجم الاقتصاد الفرنسي كاملاً في عام 2024.
وفي المملكة المتحدة وحدها، يُقدَّر أنه سيُبنى نحو 100 مركز بيانات جديد خلال السنوات القليلة المقبلة، لتلبية الطلب على معالجة الذكاء الاصطناعي.
وستكون بعض هذه المراكز لصالح شركة مايكروسوفت التي أعلنت في وقت سابق من هذا الشهر عن استثمار بقيمة 30 مليار دولار، في قطاع الذكاء الاصطناعي في بريطانيا.
لكن ما الذي يميز مراكز بيانات الذكاء الاصطناعي عن المباني التقليدية التي تضم صفوفاً من الخوادم الحاسوبية، المسؤولة عن تشغيل صورنا الشخصية وحساباتنا على وسائل التواصل الاجتماعي وتطبيقات العمل؟
وهل تستحق فعلاً كل هذا الإنفاق الهائل؟
لطالما شهدت مراكز البيانات نمواً متزايداً في حجمها. في حين ابتكرت صناعة التكنولوجيا مصطلح (المراكز العملاقة-hyperscale) لوصف مراكز البيانات التي تتطلب عشرات الميغاواط من الطاقة، قبل ظهور مفهوم الغيغاواط، وهو أكبر بـ 1000 مرة من الميغاواط.
عزز الذكاء الاصطناعي هذا المجال بشكل كبير، إذ إن غالبية نماذج الذكاء الاصطناعي تعتمد على شرائح حاسوبية باهظة الثمن من شركة (إنيفيديا-Nvidia) لمعالجة المهام.
تأتي شرائح إنيفيديا في خزانات كبيرة تكلف كل منها نحو 4 ملايين دولار. وتحمل هذه الخزانات مفتاح سبب اختلاف مراكز بيانات الذكاء الاصطناعي.
تتطلب نماذج اللغة الكبيرة (LLMs) المستخدمة في تدريب برامج الذكاء الاصطناعي تحليل اللغة إلى أصغر عناصرها لمعرفة معانيها الدقيقة، وهذا غير ممكن إلا عبر شبكة من الحواسيب تعمل بتناغم شديد وبقرب مكاني كبير.
لماذا القرب المكاني مهم جداً؟ كل متر بين رقاقتي كمبيوتر يضيف نانو ثانية (مليار جزء من الثانية) إلى زمن المعالجة.
قد لا يبدو هذا وقتاً طويلاً، لكن في مركز بيانات ضخم مليء بأجهزة الكمبيوتر، تتراكم هذه التأخيرات البسيطة وتؤثر سلباً على أداء الذكاء الاصطناعي.
لذلك تُوضع خزانات المعالجة الخاصة بالذكاء الاصطناعي قريبة جداً من بعضها البعض لإزالة عامل التأخير وتحقيق ما يسمى بمعالجة متوازية، حيث تعمل الأجهزة كحاسوب واحد ضخم.
كل هذا يشير إلى تقارب الأجهزة، وهي كلمة سحرية في عالم بناء مراكز بيانات الذكاء الاصطناعي.
تساعد الكثافة في التخلص من معوقات المعالجة التي تواجهها مراكز البيانات التقليدية بسبب بُعد المسافة بين وحدات المعالجة.
مع ذلك، فإن تلك الصفوف الكثيفة من الخزانات تستهلك كميات هائلة من الطاقة (gigawatts)، كما أن تدريب نماذج الذكاء الاصطناعي الضخمة (LLMs) يتسبب في قفزات مفاجئة في استهلاك الكهرباء.
تشبه هذه القفزات ما يحدث لو عملت آلاف المنازل على تشغيل وإيقاف آلاف الأباريق الكهربائية في الوقت نفسه كل بضع ثوانٍ.
ويحتاج مثل هذا الطلب غير المنتظم على شبكة الكهرباء المحلية، إلى إدارة دقيقة.
يحلل دانيال بيزو من شركة الاستشارات الهندسية لمراكز البيانات (معهد أب تايم-The Uptime Institute) عمل هذه المراكز بشكل مستمر. ويقول إن "مراكز البيانات التقليدية تستهلك الطاقة بشكل ثابت وهادئ، بينما الذكاء الاصطناعي يفرض ضغطاً هائلاً على الشبكة".
ومثل تلك الغلايات المتزامنة، تُمثل الطفرات المفاجئة في الذكاء الاصطناعي ما يُطلق عليه بيزو مشكلةً فريدة.
وبحسب بيزو فإن الزيادات المفاجئة في استهلاك الطاقة الناتجة عن الذكاء الاصطناعي هي "مشكلة استثنائية"، موضحاً أن هذا العبء غير المسبوق يمثل تحدياً هندسياً هائلاً يمكن مقارنته ببرنامج أبولو الفضائي.
يُحاول مُشغلو مراكز البيانات التغلب على مشكلة الطاقة بطرقٍ مُختلفة.
في حديثه مع بي بي سي في وقت سابق من هذا الشهر، صرّح الرئيس التنفيذي لشركة إنفيديا جينسن هوانغ، بأنه يأمل على المدى القريب، أن يُستخدم على صعيد المملكة المتحدة، المزيد من توربينات الغاز "خارج الشبكة الكهربائية حتى لا نثقل كاهل الناس".
وأضاف أن الذكاء الاصطناعي سيصمم توربينات غازية وألواحاً شمسية وتوربينات رياح وطاقة اندماجية أفضل لإنتاج طاقة مستدامة أكثر فعالية من حيث التكلفة.
وتستثمر مايكروسوفت مليارات الدولارات في مشاريع الطاقة، بما في ذلك صفقة مع كونستليشن إنرجي لإعادة إنتاج الطاقة النووية في جزيرة ثري مايل.
كما تستثمر غوغل، المملوكة لشركة ألفابت، في الطاقة النووية كجزء من استراتيجية لتشغيلها بالطاقة الخالية من الكربون بحلول عام 2030.
في الوقت نفسه، تُعلن أمازون ويب سيرفيسز (AWS)، وهي جزء من عملاق البيع بالتجزئة أمازون، أنها بالفعل أكبر مشترٍ للطاقة المتجددة في العالم.
يُدرك قطاع مراكز البيانات تماماً أن المشرّعين يُراقبون الجوانب السلبية لمصانع الذكاء الاصطناعي، إذ يُحتمل أن يُؤثّر استهلاكها المُكثّف للطاقة على البنية التحتية المحلية والبيئة.
ويشار إلى أنه من بين هذه التأثيرات البيئية، الحاجة الكبيرة للمياه لتبريد شرائح المعالجة.
وفي ولاية فرجينيا الأمريكية، التي تضم عدداً متزايداً من مراكز البيانات التي تدعم شركات التكنولوجيا العملاقة مثل أمازون وغوغل، يُدرس مشروع قانون يربط الموافقة على المواقع الجديدة بأرقام استهلاك المياه.
وفي ذات الوقت، واجه مصنع مُقترح للذكاء الاصطناعي في شمال لينكولنشاير في المملكة المتحدة اعتراضات من شركة أنجليان ووتر، المسؤولة عن صيانة صنابير المياه في منطقة الموقع المُقترح.
وتُشير أنجليان ووتر إلى أنها غير مُلزمة بتوفير المياه للاستخدامات غير المنزلية، وتقترح استخدام المياه المُعاد تدويرها من المرحلة النهائية لمعالجة النفايات السائلة كمُبرّد بدلاً من مياه الشرب.
وبالنظر للمشاكل العملية والتكاليف الهائلة التي تواجهها مراكز بيانات الذكاء الاصطناعي، هل يمكن أن يكون هذا الاتجاه كله مجرد فقاعة كبيرة؟
ابتكر أحد المتحدثين في مؤتمر مراكز البيانات الأخير مصطلح "bragawatts" -بمعنى التباهي- لوصف الطريقة التي يتحدث بها القطاع عن حجم المواقع المقترحة للذكاء الاصطناعي.
زاهل ليمبووالا، متخصص في مراكز البيانات لدى مستشاري الاستثمار التقني DTCP، يعترف بوجود أسئلة كبيرة حول مستقبل الإنفاق على مراكز بيانات الذكاء الاصطناعي.
"من الصعب تصديق هذا التوجه الحالي، إذ كان هناك الكثير من المبالغة. لكن الاستثمار يجب أن يحقق عائداً، وإلا فإن السوق سيُصحّح نفسه"، كما يقول.
ومع أخذ هذه التحذيرات في الاعتبار، لا يزال يعتقد أن الذكاء الاصطناعي يستحق مكانة خاصة في مجال الاستثمار. "سيكون للذكاء الاصطناعي تأثير أكبر من التقنيات السابقة، بما في ذلك الإنترنت. لذا، من الممكن أن نحتاج إلى كل هذه الغيغاوات".
ويشير أيضاً إلى أنه وبعيداً عن التفاخر، تُعدّ مراكز بيانات الذكاء الاصطناعي "عقارات عالم التكنولوجيا". أما فقاعات التكنولوجيا مثل فقاعة الإنترنت (دوت كوم) في التسعينيات، كانت مجرد توقعات دون أساس حقيقي، ولم يكن لها أساس مادي. في المقابل فإن مراكز بيانات الذكاء الاصطناعي تمتلك أساساً قوياً وملموساً، لكن مع ذلك فإن الزيادة الكبيرة في الإنفاق عليها لن تستمر إلى الأبد.