مراکز داده چگونه به هوش مصنوعی (AI) کمک میکنند
رشد سریع تولید داده که توسط هوش مصنوعی (AI) ایجاد میشود، علاوه بر این که نحوه ذخیره، پردازش، مدیریت و انتقال دادهها را تغییر داده است، تقاضا برای قدرت محاسباتی در مراکز داده ابری (cloud) و لبهای (edge) را هم افزایش میدهد. برای پاسخگویی به تقاضای ایجاد شده توسط هوش مصنوعی، مراکز داده در حال تکامل هستند و طراحی، زیرساختهای تامین انرژی و تجهیزات خنک کننده خود را به روشهای مختلف و منحصر به فرد با شرایط جدید تطبیق میدهند.
مراکز داده منابع محاسباتی و فضای ذخیرهسازی وسیعی را فراهم میکنند که هوش مصنوعی (AI) را قادر میسازد تا مجموعه دادههای عظیمی را برای آموزش و استنتاج پردازش کند. مراکز داده با میزبانی سخت افزارهای تخصصی مانند GPU و TPU، محاسبات پیچیده را سرعت میبخشند و از برنامههای کاربردی هوش مصنوعی و بار کاری مربوط به آن پشتیبانی میکنند.
در این مقاله به طور عمیقتر به رابطه در حال تکامل بین هوش مصنوعی و مراکز داده میپردازیم. در مورد مصرف انرژی، نیازهای سیستمهای خنک کننده و نقش محوری مراکز داده در پشتیبانی از هوش مصنوعی توضیحاتی ارائه میدهیم. در ادامه یک مطالعه موردی جالب در مورد مراکز داده هوش مصنوعی Meta Platforms ارائه میدهیم و انواع مختلف مراکز داده مورد استفاده برای برنامههای هوش مصنوعی را بررسی میکنیم.
هوش مصنوعی نیاز به مراکز داده را افزایش میدهد
هوش مصنوعی (AI) با کاربردهایی در بهینهسازی، نگهداری پیشگیرانه، دستیاران مجازی، تشخیص تقلب و تشخیص ناهنجاری، به سرعت به نیروی محرکه فناوریهای مدرن در صنایع مختلف تبدیل میشود. موفقیت این برنامههای کاربردی هوش مصنوعی به در دسترس بودن حجم وسیعی از دادهها بستگی دارد و در نتیجه منجر به افزایش تقاضا برای مراکز داده برای ذخیره و پردازش این اطلاعات میشود.
همانطور که سازمآنهای بیشتری هوش مصنوعی را در عملیات خود وارد میکنند، افزایش متناظری در تولید داده وجود دارد. به عنوان مثال، هوش مصنوعی مولد، از جمله مدلهای زبان بزرگ (LLM) مانند ChatGPT، از دادههای آموزشی گسترده برای تولید محتوای مرتبط و منسجم بر اساس ورودی کاربر استفاده میکند.
به طور مشابه، وسایل نقلیه خودران مقادیر زیادی داده را از طریق حسگرهای LiDAR، دوربینهای با وضوح بالا و سیستمهای راداری تولید میکنند. این دادهها برای آموزش مدلهای یادگیری ماشینی (ML) که سیستمهای هوش مصنوعی را تقویت میکنند، ضروری است و نیاز به ذخیرهسازی، پردازش و تجزیه و تحلیل بلادرنگ در مراکز داده بیشتر از پیش شده است.
نقش مراکز داده در پشتیبانی از هوش مصنوعی
مراکز داده زیرساخت ایمن، مقیاس پذیر و قابل اعتماد را برای ذخیره، پردازش و تجزیه و تحلیل دادههای تولید شده توسط برنامههای کاربردی هوش مصنوعی فراهم میکنند. در عین حال، بارهای کاری هوش مصنوعی اغلب هم در بحث داده و هم محاسبات سنگین و نیازمند منابع قدرتمند هستند.
مراکز داده از طریق محاسبات با کارایی بالا (HPC) میزبانی سخت افزار تخصصی، ذخیرهسازی دادهها و شبکه، از هوش مصنوعی پشتیبانی میکنند. در عین حال، این ساختمانهای تخصصی مجهز به زیرساختهای تامین برق و خنک کنندگی هستند (که در بخشهای بعدی به آن پرداخته میشود) تا اطمینان حاصل شود که تمام سختافزارهای داخلی آنها به درستی کار میکنند.
۱) محاسبات با عملکرد بالا (HPC)
برنامههای کاربردی هوش مصنوعی (AI) به مقدار زیادی قدرت محاسباتی نیاز دارند که هم توسط بارهای آموزشی و هم استنتاج مرتبط با مدلهای هوش مصنوعی آنها مورد استفاده قرار میگیرد. مراکز داده با استفاده از خوشههای محاسباتی با کارایی بالا از برنامههای کاربردی هوش مصنوعی و بارهای کاری مرتبط با آن پشتیبانی میکنند. این خوشهها متشکل از چندین سرور هستند که از طریق شبکههای پرسرعت به هم متصل شدهاند و امکان پردازش موازی و آموزش سریعتر را فراهم میکنند.
در یک مرکز داده، یک سیستم محاسباتی با کارایی بالا اغلب به گونهای طراحی میشود که در یک رک استاندارد ۱۹ اینچی چهار پستی قرار گیرد. این یک فرم رایج برای تجهیزات مرکز داده است که برای قرار دادن سرورهای رک (rack server) (مانند سرورهای ۱U) سرورهای تیغهای (blade server)، تجهیزات شبکه و آرایههای ذخیرهسازی طراحی شده است. این سیستمها ماژولار و مقیاسپذیر هستند و با تغییر نیازهای برنامههای هوش مصنوعی و حجم کاری، نصب و ارتقای ظرفیت را آسان میکنند.
در این سیستم HPC، چگالی توان یک رک میتواند از ۲۰ تا بیش از ۶۰ کیلووات متغیر باشد. به عنوان مثال، یک رک ۴۲U متشکل از سرورهای ۱U با تراکم استاندارد که هر کدام ۵۰۰ وات مصرف میکنند، در مجموع ۲۱ کیلووات برق مصرف میکند. اگر این مثال را برای یک سیستم با تراکم بالا در نظر بگیریم، یک رک ۴۲U با سرورهای ۱U که هر کدام توان مصرفی ۱۴۳۰ وات دارند، در مجموع ۶۰ کیلووات توان مصرف میکند. در مقابل، یک سرور معمولی کم مصرف، مانند آنهایی که برای میزبانی وب طراحی شده اند، ممکن است تنها ۱۰۰ وات برق مصرف کند، که به معنای مصرف برق تجمیعی ۴.۲ کیلو وات برای یک رک ۴۲U متشکل از سرورهای ۱U است.
با فرض اینکه سیستمهای HPC با تراکم «استاندارد» و «بالا» در یک مرکز داده با ۴۰۰ رک مستقر شدهاند، این تأسیسات به منبع تغذیهای بین ۸.۴ تا ۲۴ مگاوات نیاز دارد. در سطوح تراکم توان بسیار بالا، محیطهای محاسباتی تخصصی که به عنوان امکانات اختصاصی محاسبات با کارایی بالا شناخته میشوند، برای اجرای بارهای کاری هوش مصنوعی در مقیاس بزرگ و فشرده مورد استفاده قرار میگیرند.
۲) سخت افزار تخصصی مورد استفاده در سیستمهای HPC
سیستمهای HPC از ترکیبی از پردازندههای پرقدرت، حافظه پرسرعت و سختافزار تخصصی مانند GPU برای پردازش کارآمد مقادیر زیادی از دادهها و پشتیبانی از حجم کاری هوش مصنوعی استفاده میکنند. این پردازندههای سطح بالا قادر به انجام سریع و کارآمد محاسبات پیچیده و تجزیه و تحلیل دادهها هستند. برای این منظور، استفاده از چنین پردازندههایی تضمین میکند که سیستم HPC میتواند بارهای کاری سخت، از جمله دادهکاوی، شبیهسازیهای علمی، تجزیه و تحلیل پیشرفته و وظایف یادگیری ماشینی (ML) را با سرعت پردازش بالا و حداقل تأخیر انجام دهد.
مدلهای یادگیری عمیق (DL) و هوش مصنوعی در لحظه به شتابدهندههای محاسباتی تخصصی برای الگوریتمهای یادگیری عمیق نیاز دارند. در ابتدا، این نوع محاسبات به واحدهای پردازش گرافیکی (GPU) که به طور گسترده مستقر شده بودند، متکی بود. با این حال، از آن زمان، چندین ارائهدهنده خدمات ابری، تراشههای سفارشی خود را توسعه دادهاند، مانند واحد پردازش تانسور (TPU) گوگل، که یک مدار مجتمع ویژه برنامه (ASIC) است و پروژه کاتاپولت مایکروسافت (Microsoft Project Catapult) که از آرایههای دروازه قابل برنامهریزی میدانی (FPGA) استفاده میکند. این سیستمها برای پاسخگویی به تقاضای فزاینده این حجم کاری هوش مصنوعی مورد استفاده قرار میگیرند.
سختافزارهای تخصصی مانند GPU، ASIC و FPGA میتوانند الگوریتمهای یادگیری ماشین را با سرعت بیشتری اجرا کرده و آنها را به جزء ضروری سیستمهای HPC مدرن تبدیل کنند. این پردازندههای تخصصی برای انجام محاسبات ماتریسی طراحی شدهاند و به ویژه برای کارهای یادگیری ماشینی که شامل پردازش موازی مقادیر زیادی داده میشوند، موثر هستند. با استفاده از این پردازندههای تخصصی، سیستمهای HPC میتوانند پردازش بارهای کاری هوش مصنوعی را به میزان قابل توجهی تسریع کنند.
۳) ذخیرهسازی دادهها
مدلهای هوش مصنوعی به حجم زیادی از دادهها برای آموزش و استنتاج نیاز دارند و مراکز داده ظرفیت ذخیرهسازی لازم را برای نگهداری این مجموعه دادهها فراهم میکنند. علاوه بر این، برنامههای کاربردی هوش مصنوعی تعداد زیادی عملیات ورودی/خروجی (I/O) را انجام میدهند، مانند خواندن یا نوشتن دادهها در دستگاههای ذخیرهسازی و تبادل اطلاعات بین دستگاهها از طریق یک شبکه ارتباطی.
دسترسی به ذخیرهسازی با سرعت بالا برای بارهای کاری هوش مصنوعی مانند یادگیری ماشینی، یادگیری عمیق و پردازش داده که دسترسی سریع به دادهها و سرعت انتقال از سیستمهای ذخیرهسازی خود را میطلبد، ضروری است. این دسترسی سریع مدلهای هوش مصنوعی را قادر میسازد تا دادهها را به طور کارآمد بخوانند، بنویسند و پردازش کنند – در لحظه یا با وقفهای ناچیز – که منجر به بهبود عملکرد و کاهش تاخیر در کارهایی مانند آموزش، استنتاج و تجزیه و تحلیل دادهها میشود.
مراکز داده معمولا از دستگاههای ذخیرهسازی با ظرفیت بالا مانند درایوهای HDD، درایوهای SSD و ذخیرهسازی متصل به شبکه (NAS) برای نگهداری و مدیریت مجموعههای داده بزرگ هوش مصنوعی استفاده میکنند. در حالی که ارائه دهندگان خدمات ابری (CSP)، از جمله خدمات وب آمازون (AWS)، مایکروسافت آژور (Microsoft Azure) و Google Cloud، راه حلهای ذخیرهسازی با تاخیر کم و بازده بالا را به عنوان خدمات مصرفی ارائه میدهند. به عنوان مثال، Amazon FSx for Luster یک سیستم فایل با کارایی بالا است که برای بارهای کاری فشرده، از جمله یادگیری ماشین، محاسبات با عملکرد بالا و پردازش دادههای بزرگ طراحی شده است.
۴) شبکهسازی
بارهای کاری هوش مصنوعی شامل محاسبات ماتریسی بزرگ است که در صدها و هزاران پردازنده مانند CPU، GPU و TPU توزیع شده است. این محاسبات سنگین در مدت زمان معینی اتفاق میافتند و شبکهای با ظرفیت بالا، مقیاسپذیر و بدون خطا را میطلبند تا به طور موثر از این حجمهای کاری پشتیبانی کند. علاوه بر این، شیوع روزافزون موارد استفاده مانند خوشههای هوش مصنوعی همچنان محدودیتهای شبکه را از نظر پهنای باند و ظرفیت مورد نیاز افزایش میدهد.
شبکهسازی با کارایی بالا برای بارهای کاری هوش مصنوعی شامل ویژگیهای کلیدی زیر است:
توان عملیاتی: هنگام اجرای برنامههای هوش مصنوعی در مقیاس بزرگ، قابلیتهای پهنای باند شبکه پیامدهای قابلتوجهی برای عملکرد مرکز داده دارد که در نهایت بر کارایی و سرعت پردازش تأثیر میگذارد. به طور کلی، خوشههای GPU به پهنای باند ۳ برابر بیشتر از شبکههای محاسباتی سنتی نیاز دارند
برنامههای کاربردی تفکیک شده هوش مصنوعی: با ظهور برنامههای کاربردی تفکیک شده هوش مصنوعی، شبکهسازی با عملکرد بالا حتی حیاتیتر میشود. در این روش، اجزای مختلف برنامههای هوش مصنوعی در منابع سختافزاری و نرمافزاری مختلف توزیع میشوند که در سرورها و سیستمهای ذخیرهسازی مختلف در یک مرکز داده قرار دارند. ارتباط یکپارچه بین این اجزا لازم است، که تنها با یک زیرساخت شبکه قوی، مانند شبکه با ظرفیت ۴۰۰ گیگابیت در ثانیه مانند NVIDIA Mellanox 400G InfiniBand قابل دستیابی است.
کارایی: کارایی یک زیرساخت هوش مصنوعی به طور مستقیم با عملکرد شبکه آن مرتبط است. یک شبکه کند میتواند در زیرساخت کلی گلوگاه ایجاد کند و کارایی برنامههای کاربردی هوش مصنوعی مستقر شده را کاهش دهد. بنابراین، یک Fabric هوش مصنوعی بدون تلفات، اتصال زیرساختهای توزیع شده و یکپارچهسازی ویژگیهایی مانند کنترل تراکم و مدیریت پهنای باند، برای اطمینان از عملکرد یکپارچه بارهای کاری هوش مصنوعی بسیار مهم است.
مصرف برق مراکز داده هوش مصنوعی
برنامههای هوش مصنوعی مصرف انرژی و تراکم توان مصرفی را در مراکز داده افزایش میدهند، زیرا به محاسبات پرقدرتتری از سرورها و سیستمهای ذخیرهسازی نسبت به بارهای کاری سنتی نیاز دارند. این افزایش تقاضای برق میتواند بر زیرساختهای مراکز داده موجود فشار وارد کند. برای رسیدگی به مسئله مصرف انرژی رو به رشد، تلاشهای مهندسی مربوط به معماریهای مرکز داده جدید تمرکز خود را بر روی تراکم توان و طراحی مقیاسپذیر گذاشتهاند.
تراکم توان
به طور متوسط، تراکم توان در یک مرکز داده سنتی از ۴ تا ۶ کیلو وات در هر رک متغیر است. با این حال، این محدوده به طور پیوسته در حال افزایش است زیرا تعداد بیشتری از بارهای کاری هوش مصنوعی و ML به طور مکرر در مراکز داده مستقر میشوند. علاوه بر این، انتظار میرود میانگین تراکم توان مراکز داده به دلیل رشد سریع ترافیک داده و قدرت محاسباتی به افزایش خود ادامه دهد.
در مراکز داده بزرگتر (hyperscale)، که امکان تامین توان ۵ تا ۱۰۰ مگاوات را دارند، تراکم توان معمولا بیشتر از مراکز داده سنتی است. این تاسیسات عمدتا از ارائهدهندگان خدمات ابری مانند خدمات وب آمازون و شرکتهای اینترنتی بزرگ مانند Meta Platforms پشتیبانی میکنند و در سطوح تراکم توان ۱۰ تا ۱۴ کیلووات در هر رک کار میکنند. سازمآنهای بزرگتر که معمولا نیازمندیهای فناوری اطلاعات پیچیدهتری دارند، از صرفهجویی در مقیاس سود میبرند و بودجههای قابلتوجهی برای پیادهسازی زیرساختهای پیشرفته هوش مصنوعی و محاسبات پرقدرت و با تراکم بالا دارند.
بعلاوه، توان برای بارهای کاری هوش مصنوعی جدیدتر با تراکم بالاتر، محدوده تراکم را بین ۲۰ و ۴۰ کیلووات در هر رک و در برخی عملیات محاسباتی تخصصی، تراکم نقطه کانونی ۶۰ کیلووات در هر رک یا بیشتر میبرد. به عنوان مثال، این نوع تراکم توسط شرکتهای خدمات مالی، شرکتهای جلوههای بصری و استودیوهای فیلم و همچنین ابر مقیاسکنندههای خاص، مانند Meta Platform به کار گرفته میشوند.
به طور کلی، هنگامی که تراکم رک به این سطوح بالا برسد، تجهیزات مقدار قابل توجهی گرما تولید میکنند. در نتیجه، سطوح بالای تراکم توان نیازمند رویکردهای منحصر به فرد مهندسی مرکز داده است. اغلب، اپراتور تاسیسات، یک منطقه اختصاصی یا بخش تخصصی را در یک مرکز داده بزرگتر ایجاد میکند که به طور خاص برای پشتیبانی از این حجمهای کاری هوش مصنوعی که نیاز به منابع قدرتمند دارند، طراحی شده است.
طراحی مقیاس پذیر
طرحهای مرکز داده بهطور استراتژیک مهندسی میشوند تا با گسترش مقیاسپذیر سازگاری داشته باشند. با این روش امکان هزینههای سرمایهای مقرونبهصرفه در بلندمدت فراهم میشود. با در نظر گرفتن چرخه عمر معمول یک مرکز داده که بین ۱۰ تا ۱۵ سال است، در حالی که تجهیزات فناوری اطلاعات (به عنوان مثال، سرورها و تجهیزات شبکه) طول عمر بسیار کمتری بین ۳ تا ۵ سال دارند، ایجاد یک طراحی مطمئن برای آینده بسیار مهم است تا چالشهای مربوط را برطرف کند. به عنوان مثال تقاضاهای در حال تحول مربوط به تراکم توان برنامههای کاربردی و بار کاری هوش مصنوعی از این چالشها هستند.
برای دستیابی به این هدف، طراحیهای جدیدتر مرکز داده از استقرار هیبریدی دستگاههای فناوری اطلاعات پشتیبانی میکنند و از تراکمهای توان مختلف برای پاسخگویی به طیف متنوعی از مشتریان استفاده میکنند. علاوه بر این، اپراتورهای مرکز داده با تأمین ظرفیت برق بلااستفاده اضافی از شرکت برق خود، میتوانند اطمینان حاصل کنند که منبع انرژی قابل اعتمادی برای توسعه آینده دارند. این رویکرد تضمین میکند که با پیچیدهتر شدن و شدیدتر شدن نیازمندیها و الزامات برنامههای هوش مصنوعی، زیرساخت مرکز داده میتواند بدون نیاز به ارتقاء مکرر و پرهزینه بهطور یکپارچه سازگار شود.
الزامات خنک کننده مراکز داده هوش مصنوعی
کاربردها و بارهای کاری هوش مصنوعی به تجهیزات فناوری اطلاعات با تراکم توان بالا نیاز دارند، که مقدار قابل توجهی گرما تولید میکند و منجر به افزایش نیاز سرور به راهکار کاهش دما میشود. در نتیجه، مراکز داده با چالشهای خنککننده فزایندهای مواجه هستند و اغلب نیاز به طراحی مجدد یا مهندسی مجدد برای حفظ سطوح دمایی مناسب در داخل تأسیسات دارند. سرمایش ناکارآمد میتواند منجر به کاهش عمر تجهیزات، عملکرد ضعیف محاسباتی و تقاضای بیشتر برای سیستمهای خنک کننده شود.
دو روش خنککننده متداول برای رفع این چالشها، خنک کننده مایع و خنک کننده غوطهوری هستند. به ویژه، در سطوح تراکم توان بالای ۳۰ کیلووات در هر رک نقطه شروع مشکلات دمایی میشود و استراتژیهای منحصربهفردی مانند خنک کننده مایع مورد نیاز است. در چگالی توان ۶۰ تا ۸۰ کیلووات در هر رک، خنک کننده مایع مستقیم به تراشه (direct-to-chip) رایجتر میشود.
خنک کننده مایع
خنک کننده مایع روشی است که در آن یک خنک کننده مانند آب یا سیالات تخصصی مانند ۳M Novec یا Fluorinert از طریق صفحات سرد با قطعات الکترونیکی مانند CPU یا GPU در تماس بوده و دمای آنها را پایین نگاه میدارد. گرما توسط مایع خنک کننده جذب میشود و از طریق یک مبدل حرارتی یا رادیاتور به محیط بیرون منتقل میشود. بعد از آن، مایع که دمای آن پایین آمده دوباره وارد چرخه شده و قطعات را خنک میکند.
خنک کننده مایع به ویژه در مدیریت بارهای کاری هوش مصنوعی با تراکم بالا موثر است، زیرا میتواند گرما را به طور موثرتری نسبت به سیستمهای خنک کننده سنتی (هوا خنک) دفع کند. به طور طبیعی مایعات در واحد حجم هزاران بار کارآمدتر از هوا در حذف گرما هستند. این امر منطقی است که لوازم الکترونیکی سخت افزاری داخلی را با مایع در گردش خنک کنند که میتواند حجم زیادی از گرما را در فضاهای کوچک حذف کند و گرما را به محیط بیرون پس بدهد.
به طور کلی، سیستمهای خنک کننده با مایع برای تراکم توان بالا مطلوب هستند. با این حال، خنک کننده مایع معمولا فقط CPU یا GPU را خنک میکند و مقداری گرما در فضای داخلی باقی میگذارد که ممکن است سربار جدیدی به سیستم اضافه کند. سیستمهای خنک کننده با مایع نیاز به تهویه مطبوع اضافی برای خنک کردن سایر اجزا دارند.
خنک کننده غوطه وری
خنک کننده غوطه وری روشی است که در آن اجزای الکترونیکی در یک خنک کننده مایع غیر رسانا مانند ۳M Novec یا Fluorinert غوطه ور میشوند. مایع خنک کننده گرمای تولید شده توسط اجزا را جذب میکند و قبل از چرخش مجدد به مبدل حرارتی برای خنک شدن میرود. سیستم خنک کننده غوطه وری نه تنها CPU را خنک میکند، بلکه سایر اجزای نصب شده روی برد یا مادربرد را نیز خنک نگاه میدارد.
استفاده از سیستمهای خنک کننده غوطه وری به دلیل توانایی در پشتیبانی از تراکم توان بیشتر و اثربخشی مصرف کمتر انرژی (PUE) برای مراکز دادهای که محیطهای محاسباتی با عملکرد بالا را در خود دارند، در حال افزایش است. بر خلاف خنک کننده مایع که فقط CPU و/یا GPU را خنک میکند، خنک کننده غوطه وری دمای کل بردی را که این قطعات روی آن نصب شدهاند کاهش میدهد..
انواع مراکز داده مورد استفاده برای هوش مصنوعی
برنامهها و بارهای کاری هوش مصنوعی از رکهای با تراکم توان بالا استفاده میکنند، که در انواع مختلفی از امکانات، از مراکز داده ابری/مقیاس بزرگ (cloud/hyperscale) تا مراکز داده کوچک edge، قابل استقرار هستند.
مراکز داده Hyperscale/Cloud: ارائه دهندگان خدمات ابری مانند Amazon Web Services (AWS)، Microsoft Azure و Google Cloud خدمات مخصوص هوش مصنوعی را ارائه میدهند که میتوانند برای ساخت و استقرار مدلهای AI استفاده شوند. با توجه به گستردگی و بزرگی این تأسیسات، آنها به ویژه برای کاربردهای هوش مصنوعی و بارهای کاری شامل یادگیری ماشین و آموزش یادگیری عمیق، تجزیه و تحلیل دادههای بزرگ، پردازش زبان طبیعی و بینایی کامپیوتر (computer vision) مناسب هستند.
مراکز داده edge: اینها امکانات کوچکتر و غیرمتمرکزی هستند که محاسبات و ذخیرهسازی را در مکانی نزدیکتر به محل تولید و استفاده از دادهها فراهم میکنند. مراکز داده edge برای برنامههای هوش مصنوعی با تأخیر کم طراحی شدهاند که به زمان پاسخ سریع نیاز دارند، مانند تجزیه و تحلیل ویدیوی بلادرنگ، واقعیت افزوده (AR) و واقعیت مجازی (VR)، وسایل نقلیه خودران و هواپیماهای بدون سرنشین.
نکته مهم این است که به دلیل نیازهای متنوع برنامهها و سیستمهای هوش مصنوعی مختلف، نمیتوان همه مراکز داده را برای یک مورد استفاده بهینه کرد. به عنوان مثال، یک سیستم یادگیری عمیق و هوش مصنوعی به تعداد هستههای پردازنده یا پردازنده گرافیکی بیشتری برای کاهش زمان آموزش نیاز دارد، در حالی که یک موتور استنتاج مورد استفاده در هوش مصنوعی میتواند کار خود را با تعداد هستههای کمتری به انجام برساند.