بر اساس گزارش ایتنا و به نقل از تکاسپات، او بیان کرد: «مشکل من امروز این نیست که تراشه ندارم، بلکه نمیتوانم آنها را روشن کنم.» این اظهارات به طرز قابل توجهی نشاندهنده تغییر کانون توجه از سختافزار به زیرساختهای انرژی در عصر هوش مصنوعی است.
دیتاسنترهای مدرن برای اجرای مدلهای بزرگ هوش مصنوعی به اندازه یک شهر کوچک برق مصرف میکنند. برخی از این مراکز جدید به برق تا ۲ گیگاوات نیاز دارند که معادل مصرف برق برخی از ایالتهای ایالات متحده است. در سال ۲۰۲۴، مراکز داده در آمریکا ۱۸۳ تراواتساعت برق مصرف کردند که بیش از ۴٪ از مصرف ملی را شامل میشود. پیشبینی میشود این میزان تا سال ۲۰۳۰ بیش از دو برابر گردد. تا سال ۲۰۲۸، وظایف مرتبط با هوش مصنوعی قادر خواهند بود ۲۲٪ از مصرف برق خانوارهای آمریکایی را به خود اختصاص دهند.
نادلا بر این نکته تأکید کرد که بسیاری از سرورها به دلیل نبود زیرساختهای مناسب (warm shells) برای مدتزمان طولانی بلااستفاده باقی میمانند. این مراکز نیازمند برق و سیستم خنککننده کافی پیش از استقرار سختافزار هستند. در نتیجه، شرکتها با تأخیرهای قابل توجهی در راهاندازی تجهیزات خود مواجه میشوند.
همچنین، افزایش مصرف برق نیاز به آب برای سیستمهای خنککننده را نیز بالا برده است. مراکز داده در نواحی گرم مجبور شدهاند پروژههای خود را به نواحی خنکتر منتقل کنند تا هزینهها و خطرات زیستمحیطی را کاهش دهند. شرکتهای فناوری به منظور تأمین دسترسی اولویتدار به برق، قراردادهایی اختصاصی با شرکتهای خدماتی امضا میکنند که به فشار بیشتری بر روی شبکههای محلی منجر میشود.
در خاتمه، نادلا و آلتمن پیشبینی کردند که با پیشرفت فناوری نیمههادی، دستگاههای خانگی کممصرف قادر خواهند بود مدلهای پیشرفتهای همچون GPT-5 یا GPT-6 را بهطور محلی اجرا کنند. این تحول میتواند وابستگی به دیتاسنترهای گسترده را کاهش دهد و مسیر پیشرفت هوش مصنوعی را تغییر دهد.
