مراکز داده چگونه به هوش مصنوعی (AI) کمک می‌کنند

رشد سریع تولید داده که توسط هوش مصنوعی (AI) ایجاد می‌شود، علاوه بر این که نحوه ذخیره، پردازش، مدیریت و انتقال داده‌ها را تغییر داده است، تقاضا برای قدرت محاسباتی در مراکز داده ابری (cloud) و لبه‌ای (edge) را هم افزایش می‌دهد. برای پاسخگویی به تقاضای ایجاد شده توسط هوش مصنوعی، مراکز داده در حال تکامل هستند و طراحی، زیرساخت‌های تامین انرژی و تجهیزات خنک کننده خود را به روش‌های مختلف و منحصر به فرد با شرایط جدید تطبیق می‌دهند.

مراکز داده منابع محاسباتی و فضای ذخیره‌سازی وسیعی را فراهم می‌کنند که هوش مصنوعی (AI) را قادر می‌سازد تا مجموعه داده‌های عظیمی را برای آموزش و استنتاج پردازش کند. مراکز داده با میزبانی سخت افزارهای تخصصی مانند GPU و TPU، محاسبات پیچیده را سرعت می‌بخشند و از برنامه‌های کاربردی هوش مصنوعی و بار کاری مربوط به آن پشتیبانی می‌کنند.

در این مقاله به طور عمیق‌تر به رابطه در حال تکامل بین هوش مصنوعی و مراکز داده می‌پردازیم. در مورد مصرف انرژی، نیازهای سیستم‌های خنک کننده و نقش محوری مراکز داده در پشتیبانی از هوش مصنوعی توضیحاتی ارائه می‌دهیم. در ادامه یک مطالعه موردی جالب در مورد مراکز داده هوش مصنوعی Meta Platforms ارائه می‌دهیم و انواع مختلف مراکز داده مورد استفاده برای برنامه‌های هوش مصنوعی را بررسی می‌کنیم.

هوش مصنوعی نیاز به مراکز داده را افزایش می‌دهد

هوش مصنوعی (AI) با کاربردهایی در بهینه‌سازی، نگهداری پیشگیرانه، دستیاران مجازی، تشخیص تقلب و تشخیص ناهنجاری، به سرعت به نیروی محرکه فناوری‌های مدرن در صنایع مختلف تبدیل می‌شود. موفقیت این برنامه‌های کاربردی هوش مصنوعی به در دسترس بودن حجم وسیعی از داده‌ها بستگی دارد و در نتیجه منجر به افزایش تقاضا برای مراکز داده برای ذخیره و پردازش این اطلاعات می‌شود.

همانطور که سازمآن‌های بیشتری هوش مصنوعی را در عملیات خود وارد می‌کنند، افزایش متناظری در تولید داده وجود دارد. به عنوان مثال، هوش مصنوعی مولد، از جمله مدل‌های زبان بزرگ (LLM) مانند ChatGPT، از داده‌های آموزشی گسترده برای تولید محتوای مرتبط و منسجم بر اساس ورودی کاربر استفاده می‌کند.

به طور مشابه، وسایل نقلیه خودران مقادیر زیادی داده را از طریق حسگرهای LiDAR، دوربین‌های با وضوح بالا و سیستم‌های راداری تولید می‌کنند. این داده‌ها برای آموزش مدل‌های یادگیری ماشینی (ML) که سیستم‌های هوش مصنوعی را تقویت می‌کنند، ضروری است و نیاز به ذخیره‌سازی، پردازش و تجزیه و تحلیل بلادرنگ در مراکز داده بیشتر از پیش شده است.

نقش مراکز داده در پشتیبانی از هوش مصنوعی

مراکز داده زیرساخت ایمن، مقیاس پذیر و قابل اعتماد را برای ذخیره، پردازش و تجزیه و تحلیل داده‌های تولید شده توسط برنامه‌های کاربردی هوش مصنوعی فراهم می‌کنند. در عین حال، بارهای کاری هوش مصنوعی اغلب هم در بحث داده و هم محاسبات سنگین و نیازمند منابع قدرتمند هستند.

مراکز داده از طریق محاسبات با کارایی بالا (HPC) میزبانی سخت افزار تخصصی، ذخیره‌سازی داده‌ها و شبکه، از هوش مصنوعی پشتیبانی می‌کنند. در عین حال، این ساختمان‌های تخصصی مجهز به زیرساخت‌های تامین برق و خنک کنندگی هستند (که در بخش‌های بعدی به آن پرداخته می‌شود) تا اطمینان حاصل شود که تمام سخت‌افزارهای داخلی آن‌ها به درستی کار می‌کنند.

۱) محاسبات با عملکرد بالا (HPC)

برنامه‌های کاربردی هوش مصنوعی (AI) به مقدار زیادی قدرت محاسباتی نیاز دارند که هم توسط بارهای آموزشی و هم استنتاج مرتبط با مدل‌های هوش مصنوعی آن‌ها مورد استفاده قرار می‌گیرد. مراکز داده با استفاده از خوشه‌های محاسباتی با کارایی بالا از برنامه‌های کاربردی هوش مصنوعی و بارهای کاری مرتبط با آن پشتیبانی می‌کنند. این خوشه‌ها متشکل از چندین سرور هستند که از طریق شبکه‌های پرسرعت به هم متصل شده‌اند و امکان پردازش موازی و آموزش سریعتر را فراهم می‌کنند.

در یک مرکز داده، یک سیستم محاسباتی با کارایی بالا اغلب به گونه‌ای طراحی می‌شود که در یک رک استاندارد ۱۹ اینچی چهار پستی قرار گیرد. این یک فرم رایج برای تجهیزات مرکز داده است که برای قرار دادن سرورهای رک (rack server) (مانند سرورهای ۱U) سرورهای تیغه‌ای (blade server)، تجهیزات شبکه و آرایه‌های ذخیره‌سازی طراحی شده است. این سیستم‌ها ماژولار و مقیاس‌پذیر هستند و با تغییر نیازهای برنامه‌های هوش مصنوعی و حجم کاری، نصب و ارتقای ظرفیت را آسان می‌کنند.

در این سیستم HPC، چگالی توان یک رک می‌تواند از ۲۰ تا بیش از ۶۰ کیلووات متغیر باشد. به عنوان مثال، یک رک ۴۲U متشکل از سرورهای ۱U با تراکم استاندارد که هر کدام ۵۰۰ وات مصرف می‌کنند، در مجموع ۲۱ کیلووات برق مصرف می‌کند. اگر این مثال را برای یک سیستم با تراکم بالا در نظر بگیریم، یک رک ۴۲U با سرورهای ۱U که هر کدام توان مصرفی ۱۴۳۰ وات دارند، در مجموع ۶۰ کیلووات توان مصرف می‌کند. در مقابل، یک سرور معمولی کم مصرف، مانند آن‌هایی که برای میزبانی وب طراحی شده اند، ممکن است تنها ۱۰۰ وات برق مصرف کند، که به معنای مصرف برق تجمیعی ۴.۲ کیلو وات برای یک رک ۴۲U متشکل از سرورهای ۱U است.

با فرض اینکه سیستم‌های HPC با تراکم «استاندارد» و «بالا» در یک مرکز داده با ۴۰۰ رک مستقر شده‌اند، این تأسیسات به منبع تغذیه‌ای بین ۸.۴ تا ۲۴ مگاوات نیاز دارد. در سطوح تراکم توان بسیار بالا، محیط‌های محاسباتی تخصصی که به عنوان امکانات اختصاصی محاسبات با کارایی بالا شناخته می‌شوند، برای اجرای بارهای کاری هوش مصنوعی در مقیاس بزرگ و فشرده مورد استفاده قرار می‌گیرند.

۲) سخت افزار تخصصی مورد استفاده در سیستم‌های HPC

سیستم‌های HPC از ترکیبی از پردازنده‌های پرقدرت، حافظه پرسرعت و سخت‌افزار تخصصی مانند GPU برای پردازش کارآمد مقادیر زیادی از داده‌ها و پشتیبانی از حجم کاری هوش مصنوعی استفاده می‌کنند. این پردازنده‌های سطح بالا قادر به انجام سریع و کارآمد محاسبات پیچیده و تجزیه و تحلیل داده‌ها هستند. برای این منظور، استفاده از چنین پردازنده‌هایی تضمین می‌کند که سیستم HPC می‌تواند بارهای کاری سخت، از جمله داده‌کاوی، شبیه‌سازی‌های علمی، تجزیه و تحلیل پیشرفته و وظایف یادگیری ماشینی (ML) را با سرعت پردازش بالا و حداقل تأخیر انجام دهد.

مدل‌های یادگیری عمیق (DL) و هوش مصنوعی در لحظه به شتاب‌دهنده‌های محاسباتی تخصصی برای الگوریتم‌های یادگیری عمیق نیاز دارند. در ابتدا، این نوع محاسبات به واحدهای پردازش گرافیکی (GPU) که به طور گسترده مستقر شده بودند، متکی بود. با این حال، از آن زمان، چندین ارائه‌دهنده خدمات ابری، تراشه‌های سفارشی خود را توسعه داده‌اند، مانند واحد پردازش تانسور (TPU) گوگل، که یک مدار مجتمع ویژه برنامه (ASIC) است و پروژه کاتاپولت مایکروسافت (Microsoft Project Catapult) که از آرایه‌های دروازه قابل برنامه‌ریزی میدانی (FPGA) استفاده می‌کند. این سیستم‌ها برای پاسخگویی به تقاضای فزاینده این حجم کاری هوش مصنوعی مورد استفاده قرار می‌گیرند.

سخت‌افزارهای تخصصی مانند GPU، ASIC و FPGA می‌توانند الگوریتم‌های یادگیری ماشین را با سرعت بیشتری اجرا کرده و آن‌ها را به جزء ضروری سیستم‌های HPC مدرن تبدیل کنند. این پردازنده‌های تخصصی برای انجام محاسبات ماتریسی طراحی شده‌اند و به ویژه برای کارهای یادگیری ماشینی که شامل پردازش موازی مقادیر زیادی داده می‌شوند، موثر هستند. با استفاده از این پردازنده‌های تخصصی، سیستم‌های HPC می‌توانند پردازش بارهای کاری هوش مصنوعی را به میزان قابل توجهی تسریع کنند.

۳) ذخیره‌سازی داده‌ها

مدل‌های هوش مصنوعی به حجم زیادی از داده‌ها برای آموزش و استنتاج نیاز دارند و مراکز داده ظرفیت ذخیره‌سازی لازم را برای نگهداری این مجموعه داده‌ها فراهم می‌کنند. علاوه بر این، برنامه‌های کاربردی هوش مصنوعی تعداد زیادی عملیات ورودی/خروجی (I/O) را انجام می‌دهند، مانند خواندن یا نوشتن داده‌ها در دستگاه‌های ذخیره‌سازی و تبادل اطلاعات بین دستگاه‌ها از طریق یک شبکه ارتباطی.

دسترسی به ذخیره‌سازی با سرعت بالا برای بارهای کاری هوش مصنوعی مانند یادگیری ماشینی، یادگیری عمیق و پردازش داده که دسترسی سریع به داده‌ها و سرعت انتقال از سیستم‌های ذخیره‌سازی خود را می‌طلبد، ضروری است. این دسترسی سریع مدل‌های هوش مصنوعی را قادر می‌سازد تا داده‌ها را به طور کارآمد بخوانند، بنویسند و پردازش کنند – در لحظه یا با وقفه‌ای ناچیز – که منجر به بهبود عملکرد و کاهش تاخیر در کارهایی مانند آموزش، استنتاج و تجزیه و تحلیل داده‌ها می‌شود.

مراکز داده معمولا از دستگاه‌های ذخیره‌سازی با ظرفیت بالا مانند درایوهای HDD، درایوهای SSD و ذخیره‌سازی متصل به شبکه (NAS) برای نگهداری و مدیریت مجموعه‌های داده بزرگ هوش مصنوعی استفاده می‌کنند. در حالی که ارائه دهندگان خدمات ابری (CSP)، از جمله خدمات وب آمازون (AWS)، مایکروسافت آژور (Microsoft Azure) و Google Cloud، راه حل‌های ذخیره‌سازی با تاخیر کم و بازده بالا را به عنوان خدمات مصرفی ارائه می‌دهند. به عنوان مثال، Amazon FSx for Luster یک سیستم فایل با کارایی بالا است که برای بارهای کاری فشرده، از جمله یادگیری ماشین، محاسبات با عملکرد بالا و پردازش داده‌های بزرگ طراحی شده است.

۴) شبکه‌سازی

بارهای کاری هوش مصنوعی شامل محاسبات ماتریسی بزرگ است که در صدها و هزاران پردازنده مانند CPU، GPU و TPU توزیع شده است. این محاسبات سنگین در مدت زمان معینی اتفاق می‌افتند و شبکه‌ای با ظرفیت بالا، مقیاس‌پذیر و بدون خطا را می‌طلبند تا به طور موثر از این حجم‌های کاری پشتیبانی کند. علاوه بر این، شیوع روزافزون موارد استفاده مانند خوشه‌های هوش مصنوعی همچنان محدودیت‌های شبکه را از نظر پهنای باند و ظرفیت مورد نیاز افزایش می‌دهد.

شبکه‌سازی با کارایی بالا برای بارهای کاری هوش مصنوعی شامل ویژگی‌های کلیدی زیر است:

توان عملیاتی: هنگام اجرای برنامه‌های هوش مصنوعی در مقیاس بزرگ، قابلیت‌های پهنای باند شبکه پیامدهای قابل‌توجهی برای عملکرد مرکز داده دارد که در نهایت بر کارایی و سرعت پردازش تأثیر می‌گذارد. به طور کلی، خوشه‌های GPU به پهنای باند ۳ برابر بیشتر از شبکه‌های محاسباتی سنتی نیاز دارند

برنامه‌های کاربردی تفکیک شده هوش مصنوعی: با ظهور برنامه‌های کاربردی تفکیک شده هوش مصنوعی، شبکه‌سازی با عملکرد بالا حتی حیاتی‌تر می‌شود. در این روش، اجزای مختلف برنامه‌های هوش مصنوعی در منابع سخت‌افزاری و نرم‌افزاری مختلف توزیع می‌شوند که در سرورها و سیستم‌های ذخیره‌سازی مختلف در یک مرکز داده قرار دارند. ارتباط یکپارچه بین این اجزا لازم است، که تنها با یک زیرساخت شبکه قوی، مانند شبکه با ظرفیت ۴۰۰ گیگابیت در ثانیه مانند NVIDIA Mellanox 400G InfiniBand قابل دستیابی است.

کارایی: کارایی یک زیرساخت هوش مصنوعی به طور مستقیم با عملکرد شبکه آن مرتبط است. یک شبکه کند می‌تواند در زیرساخت کلی گلوگاه ایجاد کند و کارایی برنامه‌های کاربردی هوش مصنوعی مستقر شده را کاهش دهد. بنابراین، یک Fabric هوش مصنوعی بدون تلفات، اتصال زیرساخت‌های توزیع شده و یکپارچه‌سازی ویژگی‌هایی مانند کنترل تراکم و مدیریت پهنای باند، برای اطمینان از عملکرد یکپارچه بارهای کاری هوش مصنوعی بسیار مهم است.

مصرف برق مراکز داده هوش مصنوعی

برنامه‌های هوش مصنوعی مصرف انرژی و تراکم توان مصرفی را در مراکز داده افزایش می‌دهند، زیرا به محاسبات پرقدرت‌تری از سرورها و سیستم‌های ذخیره‌سازی نسبت به بارهای کاری سنتی نیاز دارند. این افزایش تقاضای برق می‌تواند بر زیرساخت‌های مراکز داده موجود فشار وارد کند. برای رسیدگی به مسئله مصرف انرژی رو به رشد، تلاش‌های مهندسی مربوط به معماری‌های مرکز داده جدید تمرکز خود را بر روی تراکم توان و طراحی مقیاس‌پذیر گذاشته‌اند.

تراکم توان

به طور متوسط، تراکم توان در یک مرکز داده سنتی از ۴ تا ۶ کیلو وات در هر رک متغیر است. با این حال، این محدوده به طور پیوسته در حال افزایش است زیرا تعداد بیشتری از بارهای کاری هوش مصنوعی و ML به طور مکرر در مراکز داده مستقر می‌شوند. علاوه بر این، انتظار می‌رود میانگین تراکم توان مراکز داده به دلیل رشد سریع ترافیک داده و قدرت محاسباتی به افزایش خود ادامه دهد.

در مراکز داده‌ بزرگتر (hyperscale)، که امکان تامین توان ۵ تا ۱۰۰ مگاوات را دارند، تراکم توان معمولا بیشتر از مراکز داده سنتی است. این تاسیسات عمدتا از ارائه‌دهندگان خدمات ابری مانند خدمات وب آمازون و شرکت‌های اینترنتی بزرگ مانند Meta Platforms پشتیبانی می‌کنند و در سطوح تراکم توان ۱۰ تا ۱۴ کیلووات در هر رک کار می‌کنند. سازمآن‌های بزرگ‌تر که معمولا نیازمندی‌های فناوری اطلاعات پیچیده‌تری دارند، از صرفه‌جویی در مقیاس سود می‌برند و بودجه‌های قابل‌توجهی برای پیاده‌سازی زیرساخت‌های پیشرفته هوش مصنوعی و محاسبات پرقدرت و با تراکم بالا دارند.

بعلاوه، توان برای بارهای کاری هوش مصنوعی جدیدتر با تراکم بالاتر، محدوده تراکم را بین ۲۰ و ۴۰ کیلووات در هر رک و در برخی عملیات محاسباتی تخصصی، تراکم نقطه کانونی ۶۰ کیلووات در هر رک یا بیشتر می‌برد. به عنوان مثال، این نوع تراکم توسط شرکت‌های خدمات مالی، شرکت‌های جلوه‌های بصری و استودیوهای فیلم و همچنین ابر مقیاس‌کننده‌های خاص، مانند Meta Platform به کار گرفته می‌شوند.

به طور کلی، هنگامی که تراکم رک به این سطوح بالا برسد، تجهیزات مقدار قابل توجهی گرما تولید می‌کنند. در نتیجه، سطوح بالای تراکم توان نیازمند رویکردهای منحصر به فرد مهندسی مرکز داده است. اغلب، اپراتور تاسیسات، یک منطقه اختصاصی یا بخش تخصصی را در یک مرکز داده بزرگتر ایجاد می‌کند که به طور خاص برای پشتیبانی از این حجم‌های کاری هوش مصنوعی که نیاز به منابع قدرتمند دارند، طراحی شده است.

طراحی مقیاس پذیر

طرح‌های مرکز داده به‌طور استراتژیک مهندسی می‌شوند تا با گسترش مقیاس‌پذیر سازگاری داشته باشند. با این روش امکان هزینه‌های سرمایه‌ای مقرون‌به‌صرفه در بلندمدت فراهم می‌شود. با در نظر گرفتن چرخه عمر معمول یک مرکز داده که بین ۱۰ تا ۱۵ سال است، در حالی که تجهیزات فناوری اطلاعات (به عنوان مثال، سرورها و تجهیزات شبکه) طول عمر بسیار کمتری بین ۳ تا ۵ سال دارند، ایجاد یک طراحی مطمئن برای آینده بسیار مهم است تا چالش‌های مربوط را برطرف کند. به عنوان مثال تقاضاهای در حال تحول مربوط به تراکم توان برنامه‌های کاربردی و بار کاری هوش مصنوعی از این چالش‌ها هستند.

برای دستیابی به این هدف، طراحی‌های جدیدتر مرکز داده از استقرار هیبریدی دستگاه‌های فناوری اطلاعات پشتیبانی می‌کنند و از تراکم‌های توان مختلف برای پاسخگویی به طیف متنوعی از مشتریان استفاده می‌کنند. علاوه بر این، اپراتورهای مرکز داده با تأمین ظرفیت برق بلااستفاده اضافی از شرکت برق خود، می‌توانند اطمینان حاصل کنند که منبع انرژی قابل اعتمادی برای توسعه آینده دارند. این رویکرد تضمین می‌کند که با پیچیده‌تر شدن و شدیدتر شدن نیازمندی‌ها و الزامات برنامه‌های هوش مصنوعی، زیرساخت مرکز داده می‌تواند بدون نیاز به ارتقاء مکرر و پرهزینه به‌طور یکپارچه سازگار شود.

الزامات خنک کننده مراکز داده هوش مصنوعی

کاربردها و بارهای کاری هوش مصنوعی به تجهیزات فناوری اطلاعات با تراکم توان بالا نیاز دارند، که مقدار قابل توجهی گرما تولید می‌کند و منجر به افزایش نیاز سرور به راهکار کاهش دما می‌شود. در نتیجه، مراکز داده با چالش‌های خنک‌کننده فزاینده‌ای مواجه هستند و اغلب نیاز به طراحی مجدد یا مهندسی مجدد برای حفظ سطوح دمایی مناسب در داخل تأسیسات دارند. سرمایش ناکارآمد می‌تواند منجر به کاهش عمر تجهیزات، عملکرد ضعیف محاسباتی و تقاضای بیشتر برای سیستم‌های خنک کننده شود.

دو روش خنک‌کننده متداول برای رفع این چالش‌ها، خنک کننده مایع و خنک‌ کننده غوطه‌وری هستند. به ویژه، در سطوح تراکم توان بالای ۳۰ کیلووات در هر رک نقطه شروع مشکلات دمایی می‌شود و استراتژی‌های منحصربه‌فردی مانند خنک‌ کننده مایع مورد نیاز است. در چگالی توان ۶۰ تا ۸۰ کیلووات در هر رک، خنک کننده مایع مستقیم به تراشه (direct-to-chip) رایج‌تر می‌شود.

خنک کننده مایع

خنک کننده مایع روشی است که در آن یک خنک کننده مانند آب یا سیالات تخصصی مانند ۳M Novec یا Fluorinert از طریق صفحات سرد با قطعات الکترونیکی مانند CPU یا GPU در تماس بوده و دمای آن‌ها را پایین نگاه می‌دارد. گرما توسط مایع خنک کننده جذب می‌شود و از طریق یک مبدل حرارتی یا رادیاتور به محیط بیرون منتقل می‌شود. بعد از آن، مایع که دمای آن پایین آمده دوباره وارد چرخه شده و قطعات را خنک می‌کند.

خنک کننده مایع به ویژه در مدیریت بارهای کاری هوش مصنوعی با تراکم بالا موثر است، زیرا می‌تواند گرما را به طور موثرتری نسبت به سیستم‌های خنک کننده سنتی (هوا خنک) دفع کند. به طور طبیعی مایعات در واحد حجم هزاران بار کارآمدتر از هوا در حذف گرما هستند. این امر منطقی است که لوازم الکترونیکی سخت افزاری داخلی را با مایع در گردش خنک کنند که می‌تواند حجم زیادی از گرما را در فضاهای کوچک حذف کند و گرما را به محیط بیرون پس بدهد.

به طور کلی، سیستم‌های خنک کننده با مایع برای تراکم توان بالا مطلوب هستند. با این حال، خنک کننده مایع معمولا فقط CPU یا GPU را خنک می‌کند و مقداری گرما در فضای داخلی باقی می‌گذارد که ممکن است سربار جدیدی به سیستم اضافه کند. سیستم‌های خنک کننده با مایع نیاز به تهویه مطبوع اضافی برای خنک کردن سایر اجزا دارند.

خنک کننده غوطه وری

خنک کننده غوطه وری روشی است که در آن اجزای الکترونیکی در یک خنک کننده مایع غیر رسانا مانند ۳M Novec یا Fluorinert غوطه ور می‌شوند. مایع خنک کننده گرمای تولید شده توسط اجزا را جذب می‌کند و قبل از چرخش مجدد به مبدل حرارتی برای خنک شدن می‌رود. سیستم خنک کننده غوطه وری نه تنها CPU را خنک می‌کند، بلکه سایر اجزای نصب شده روی برد یا مادربرد را نیز خنک نگاه می‌دارد.

استفاده از سیستم‌های خنک کننده غوطه وری به دلیل توانایی در پشتیبانی از تراکم توان بیشتر و اثربخشی مصرف کمتر انرژی (PUE) برای مراکز داده‌ای که محیط‌های محاسباتی با عملکرد بالا را در خود دارند، در حال افزایش است. بر خلاف خنک کننده مایع که فقط CPU و/یا GPU را خنک می‌کند، خنک کننده غوطه وری دمای کل بردی را که این قطعات روی آن نصب شده‌اند کاهش می‌دهد..

انواع مراکز داده مورد استفاده برای هوش مصنوعی

برنامه‌ها و بارهای کاری هوش مصنوعی از رک‌های با تراکم توان بالا استفاده می‌کنند، که در انواع مختلفی از امکانات، از مراکز داده ابری/مقیاس بزرگ (cloud/hyperscale) تا مراکز داده کوچک edge، قابل استقرار هستند.

مراکز داده Hyperscale/Cloud: ارائه دهندگان خدمات ابری مانند Amazon Web Services (AWS)، Microsoft Azure و Google Cloud خدمات مخصوص هوش مصنوعی را ارائه می‌دهند که می‌توانند برای ساخت و استقرار مدل‌های AI استفاده شوند. با توجه به گستردگی و بزرگی این تأسیسات، آن‌ها به ویژه برای کاربردهای هوش مصنوعی و بارهای کاری شامل یادگیری ماشین و آموزش یادگیری عمیق، تجزیه و تحلیل داده‌های بزرگ، پردازش زبان طبیعی و بینایی کامپیوتر (computer vision) مناسب هستند.

مراکز داده edge: اینها امکانات کوچک‌تر و غیرمتمرکزی هستند که محاسبات و ذخیره‌سازی را در مکانی نزدیک‌تر به محل تولید و استفاده از داده‌ها فراهم می‌کنند. مراکز داده edge برای برنامه‌های هوش مصنوعی با تأخیر کم طراحی شده‌اند که به زمان پاسخ سریع نیاز دارند، مانند تجزیه و تحلیل ویدیوی بلادرنگ، واقعیت افزوده (AR) و واقعیت مجازی (VR)، وسایل نقلیه خودران و هواپیماهای بدون سرنشین.

نکته مهم این است که به دلیل نیازهای متنوع برنامه‌ها و سیستم‌های هوش مصنوعی مختلف، نمی‌توان همه مراکز داده را برای یک مورد استفاده بهینه کرد. به عنوان مثال، یک سیستم یادگیری عمیق و هوش مصنوعی به تعداد هسته‌های پردازنده یا پردازنده گرافیکی بیشتری برای کاهش زمان آموزش نیاز دارد، در حالی که یک موتور استنتاج مورد استفاده در هوش مصنوعی می‌تواند کار خود را با تعداد هسته‌های کمتری به انجام برساند.

منبع

فیسبوک توییتر گوگل + لینکداین تلگرام واتس اپ کلوب

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *