صفحه اصلی

همکاری انویدیا با گوگل!

۱۸ شهریور ۱۴۰۲

همکاری گوگل با Nvidia برای باز طراحی ابر هوش مصنوعی

مدیر عامل Nvidia از همکاری با گوگل برای باز طراحی مجدد ابر هوش مصنوعی می گوید.

جنسن هوانگ، مدیر عامل انویدیا، روی صحنه با مدیر عامل google cloud توماس کوریان در google cloud next 2023 گفت: هوش مصنوعی مولد در حال متحول کردن همه لایه‌های پشته محاسباتی است و دو شرکت ما – با داشتن با استعدادترین و حرفه ای تیم‌های علوم کامپیوتر و محاسبات در جهان – در حال همکاری برای باز طراحی زیرساخت ابری برای هوش مصنوعی مولد هستند.

جنسن هوانگ، مدیر عامل انویدیا، این هفته به هزاران شریک و مشتری گوگل گفت که این دو غول فناوری، یک نوآوری مشترک و ارتباط تنگاتنگ تری را برای «باز طراحی مجدد زیرساخت ابری» برای عصر هوش مصنوعی ایجاد خواهند کرد.

هوانگ گفت: «ما از هر لایه شروع می‌کنیم: از تراشه‌ها، H100 برای آموزش و پردازش داده، تا مدل‌سازی خدمات با Nvidia L4 [GPU]». این یک مهندسی مجدد از کل پشته است – از پردازنده ها، سیستم ها، شبکه ها و همه نرم افزارها. همه اینها برای سرعت بخشیدن به GCP [پلتفرم ابری گوگل] Vertex AI و ایجاد نرم افزار و زیرساخت برای محققان و توسعه دهندگان هوش مصنوعی در جهان است.

در Google Cloud Next این هفته، این شرکت‌ها چندین پیشنهاد جدید با هدف کمک به مشتریان در ساخت و استقرار مدل‌های بزرگ برای هوش مصنوعی مولد ارائه کردند.

این شامل ادغام ارائه Spark بدون سرور Google با پردازنده‌های گرافیکی انویدیا، نمونه‌های جدید Google A3 VM با پردازنده‌های گرافیکی Nvidia H100 Tensor Core و PaxML Google بهینه‌سازی شده برای محاسبات سریع Nvidida است.

انویدیا و گوگل نرم افزار را دوباره باز طراحی می کنند!

PaxML چارچوب جدید گوگل برای ساخت مدل‌های بزرگ زبان بزرگ (LLM) است که این شرکت‌ها مدتی است که مهندسی مشترک آن را انجام داده‌اند. این برنامه توسعه دهندگان را قادر می سازد از پردازنده های گرافیکی Nvidia H100 و A100 Tensor Core برای آزمایش و مقیاس پیشرفته و کاملاً قابل تنظیم استفاده کنند.

هوانگ گفت: «ما با هم کار می‌کنیم تا پشته نرم‌افزار را دوباره مهندسی و بهینه‌سازی کنیم و نرم‌افزار را دوباره باز طراحی کنیم. کاری که ما برای ایجاد چارچوب‌هایی انجام داده‌ایم که به ما امکان می‌دهد تا مرزهای مدل‌های زبانی بزرگ را که در زیرساخت‌های غول‌پیکر توزیع شده‌اند پیش ببریم، به طوری که بتوانیم: در زمان برای محققان هوش مصنوعی صرفه‌جویی کنیم. مقیاس تا مدل های غول پیکر نسل بعدی. صرفه جویی در پول؛ صرفه جویی در مصرف انرژی—همه اینها به علوم کامپیوتری پیشرفته نیاز دارد.»

بنابراین امروز اولین ثمره کار خود را به نام PaxML اعلام می کنیم. مدیر عامل انویدیا گفت: این یک چارچوب بزرگ برای مدل‌های زبان است که بر روی JAX ساخته شده است، بر روی OpenXLA ساخته شده است.

Google Cloud برای اولین بار ابررایانه Nvidia DGX GH200 AI را دریافت کرد

Google Cloud یکی از اولین شرکت‌هایی در جهان خواهد بود که به ابررایانه Nvidia DGX GH200 AI – مجهز به Superchip Grace Hopper Nvidia – دسترسی خواهد داشت تا قابلیت‌های آن را برای بارهای کاری مولد هوش مصنوعی بررسی کند.

تیم‌های ما اکنون شروع به ساخت پردازنده‌های نسل بعدی و زیرساخت‌های نسل بعدی هوش مصنوعی کرده‌اند. او گفت که گوگل و خودمان، بر روی یکی از اولین نمونه ها در جهان ابررایانه هوش مصنوعی نسل بعدی خود به نام DGX GH200، بر اساس یک تراشه جدید انقلابی: گریس هاپر، کار می کنیم. “این واقعاً کار شگفت انگیزی است که ما با هم انجام می دهیم.”

علاوه بر این، ابررایانه و نرم افزار Nvidia DGX Cloud AI قرار است مستقیماً از مرورگر وب در دسترس مشتریان Google Cloud قرار گیرد تا سرعت و مقیاس را برای بارهای آموزشی پیشرفته فراهم کند.

هوانگ گفت: «ما Nvidia DGX Cloud را در GCP [Google Cloud Platform] قرار خواهیم داد. “این جایی است که ما تحقیقات هوش مصنوعی خود را انجام می دهیم. اینجاست که ما پشته های نرم افزار باورنکردنی خود را بهینه می کنیم. همه این کارهایی که ما انجام می‌دهیم فوراً به نفع GCP و همه افرادی است که روی آن کار می‌کنند.»

مدیر عامل Google Cloud توماس کوریان در رابطه با Nvidia گفت: Google Cloud و Nvidia سال‌هاست که با یکدیگر همکاری می‌کنند. برای مثال، در اوایل سال 2023، Google Cloud اولین ارائه‌دهنده ابری بود که با راه‌اندازی G2 VM، پردازنده‌های گرافیکی Nvidia L4 Tensor Core را ارائه کرد.

مدیر عامل گوگل کلود توماس کوریان گفت که شرکت ابری او از نوآوری که در کنار انویدیا راه اندازی می کند “هیجان زده” است.

وی در ادامه بیان کرد که مردم همیشه از او می‌پرسند که دقیقاً چه رابطه‌ای بین شتاب‌دهنده‌های TPU با طراحی سفارشی Google Cloud و پردازنده‌های گرافیکی وجود دارد.

به بیان ساده، با تکامل هوش مصنوعی، نیازهای معماری سخت‌افزار و پشته نرم‌افزار تکامل می‌یابد – از آموزش گرفته تا استنتاج، تا قابلیت‌های جدیدی مانند جاسازی‌ها. و ما می‌خواهیم گسترده‌ترین و بهینه‌ترین انتخاب شتاب‌دهنده‌ها را به مشتریان ارائه دهیم.».

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *