ویژگی حمایت شده از آنجایی که بارهای کاری سنگین هوش مصنوعی پتابایتی شروع به جمع شدن می کنند، ارائه دهندگان مقیاس بزرگ مجبورند زیرساخت های خود را تقویت کنند تا آستانه دسترسی کامل به محاسبات، شبکه و ذخیره سازی داده ها را حفظ کنند.
ممکن است سال ها طول بکشد تا این زیرساخت ها واقعاً برای هوش مصنوعی آماده شوند. تا آن زمان، می توانند در جریان های درآمدی ناشی از نیاز فزاینده مشتریان به ذخیره و انتقال مجموعه داده ها در طول چرخه عمر مدل هوش مصنوعی تسلی یابند – در حالی که در هر مرحله از آن هزینه دریافت می شود.
هزینه فقط یکی از دلایلی است که شرکت ها به دنبال گزینه های محلی برای حجم کارهای در حال رشد هوش مصنوعی خود هستند، که همچنین امید دارند عملکرد بالاتر، مدیریت دقیق تر و امنیت داده بهتری ارائه دهد.
کریس گرینوود، معاون خدمات داده و ذخیره سازی (UKIMEA) در HPE، می گوید: “مشتریان سازمانی متوجه می شوند که بهره گیری از هوش مصنوعی برای عملکرد بهینه، اما با کنترل هزینه یکپارچه، نیاز به رویکردی اساساً متفاوت برای مدیریت و ذخیره سازی داده های اختصاصی خود دارد.” وی می افزاید: “آن ها به دنبال پلتفرم های بهینه سازی شده برای هوش مصنوعی هستند که هزینه های اضافی مصرف نداشته باشند و بر برنامه های دیگر کسب و کارشان تأثیری نگذارند.”
برای سازمانهایی که در حال بررسی چگونگی استفاده از هوش مصنوعی و هوش مصنوعی مولد برای توسعه محصولات/خدمات جدید و درآمدزا هستند، مسیر پیش رو پر از خطرات است. آن ها با چالش های فناوری بسیار پیچیده ای روبرو هستند.
مطالعات مختلف نشان می دهند که اکثر پروژه های هوش مصنوعی طبق برنامه پیش نمی روند – برخی آمارهای تأیید نشده حاکی از آن است که نرخ شکست بالاتر از ۸۰ درصد است. تحقیقات RAND نشان داد که یکی از دلایل اصلی این نرخ شکست بالا این است که سازمان ها زیرساخت های کافی برای ذخیره و مدیریت داده های خود و سپس استقرار مدل های هوش مصنوعی کامل شده ندارند.
جیمز واتسون-هال، مدیر ارشد فناوری اطلاعات – هیبریدی در HPE، گزارش می دهد: “همچنان بحث های زیادی در مورد هوش مصنوعی وجود دارد، چگونه می تواند ارزش داده ها را ‘باز کند’ و همچنین سرعت عرضه راه حل های درآمدزا را تسریع کند.” یکی از مشکلات پذیرش هوش مصنوعی برای مشتریان این است که در حالی که فرصت ها را وعده می دهد، می تواند آن ها را به بن بست های توسعه ای بکشاند. ابرهای خصوصی بسیاری از آن خطرات را کاهش می دهند. آنها به مشتریان این امکان را می دهند که از مزایای اثبات شده پلتفرم های هایپرسکیلر استفاده کنند، در حالی که کنترل و مالکیت داده های عملیات داخلی را به طور ایمن حفظ می کنند.
نقاط قوت ابر خصوصی
برای دست یابی به سرعت مؤثر در بازار، به محاسبات شبکه با تأخیر کم نیاز است تا از محیط های توسعه هوش مصنوعی پشتیبانی کند. اطمینان از اینکه مراحل استنتاج و تنظیم نزدیک به منابع داده ها – یعنی در همان محل فیزیکی – انجام شود، می تواند سرعت و دقت مدل های هوش مصنوعی را به طور قابل توجهی افزایش دهد. راه حلهای ابری عمومی، با این حال، ممکن است به انتقال داده ها از طریق مسافت های جغرافیایی نیاز داشته باشند که منجر به تأخیر و دیگر ناکارآمدی ها می شود.
علاوه بر این، رویکرد درون محلی اجازه می دهد که مدیریت مشتریان نزدیک تر شود که مدیریت را ساده می کند، پاسخگویی را شفاف می سازد و تسهیل کننده گردش کارهای امن و مشارکتی می شود، همانطور که واتسون – هال اشاره می کند، همراه با نظارت بر هزینه: “کنترل هزینه از طریق مدل های مالی انعطاف پذیر هدایت می شود و از هزینه های غیرمنتظره مربوط به قرارداد های ابری عمومی جلوگیری می شود. ابر خصوصی به مشتریان این امکان را می دهد که فناوری خود را برای موارد استفاده خاص بهینه کنند، بنابراین استقرارهای هوش مصنوعی از مرحله آزمایشی تا استقرار برای بهره وری حداکثری و تشویق به نوآوری طراحی می شوند.”
این عوامل – و دیگر عوامل – با هم نشان می دهند که چرا هوش مصنوعی ابر خصوصی HPE، که اوایل امسال معرفی شد، برای تسهیل نیازهای خاص حجم کارهای هوش مصنوعی که در محیط های درون محلی اجرا می شوند، طراحی و ساخته شده است. بخشی از پورتفولیو محاسباتی هوش مصنوعی NVIDIA توسط HPE، هوش مصنوعی ابری خصوصی یک ابر خصوصی قابل گسترش است که به منظور تسریع استقرار پروژه های هوش مصنوعی و اطمینان از اینکه داده های آن به طور کامل تحت کنترل سازمان هستند، طراحی شده است.
این راه حل، محاسبات تسریع شده NVIDIA، شبکه سازی و نرم افزار را با پلتفرم های محاسباتی پیشرو صنعت HPE و پورتفولیو ذخیره سازی داده از طریق ابر GreenLake HPE، همراه با قابلیت های HPE برای خطوط داده، سازماندهی و عملیات یادگیری ماشین (MLOps) ترکیب می کند.
HPE می گوید این راهحل نیاز دیرینه به یک محیط توسعه و استقرار سریع و انعطاف پذیر برای برنامه های هوش مصنوعی و هوش مصنوعی مولد را برآورده می کند. گرین وود هشدار می دهد: “حجم کارهای هوش مصنوعی مانند دیگر حجم کارها نیستند – نمی توانید انتظار داشته باشید که یکی از آن ها را بر روی زیرساختی که برای هوش مصنوعی بهینه نشده است اجرا کنید و نتایج بهینه را به دست آورید.”
او افزود: “همچنین، پروژه های هوش مصنوعی باید سرعت به ارزش بسیار قابل اندازه گیری را نشان دهند تا سرمایه گذاری را توجیه کنند. و حجم کارهای موفق هوش مصنوعی باید به راحتی و سرعت قابل استقرار باشند تا وضعیت رقابتی خود را در بخش های عمودی و صنایع مشخص حفظ کنند. آنها باید در مدت چند ماه، نه سال ها، بازگشت سرمایه ملموسی را نشان دهند.”
گرین وود اضافه می کند: “این تنها در صورتی امکان پذیر است که ابزارهای پیش تعریف شده، یکپارچه و آزمایش شده از یک پلتفرم یکپارچه ارائه شوند – این همان چیزی است که هوش مصنوعی ابری خصوصی HPE انجام میدهد.”
موفقیت با داده ها آغاز می شود
البته، همه نتایج موفق هوش مصنوعی با داده ها شروع می شوند – اطلاعاتی که به صورت بهینه برای هوش مصنوعی ذخیره و مدیریت می شوند.
“سازمان ها مشتاق اند داده های خود را بررسی کنند تا ارزش آن ها را کشف کنند، اما قبل از اینکه به آن مرحله برسند، باید بفهمند داده ها کجا هستند و چه چیزی واقعاً دارند – یعنی آیا داده ها قابل اعتماد هستند – این چالش شماره یک است”، کریس گرینوود می گوید. “سپس باید اطمینان حاصل کنند که از پلتفرم پرسشگری صحیح استفاده می کنند که به آنها امکان دستیابی به اهدافشان را می دهد.”
عملکردهای هوش مصنوعی ابری خصوصی HPE به سازمان ها کمک می کنند داده های جداگانه خود را پیدا، شناسایی و درک کنند و سپس یک خط لوله داده ارائه می دهند که به پرسشگری در دامنه های داده ها امکان پذیر می شود. این ابزارها برای استفاده در تمامی نقش های سازمانی، از دانشمندان داده و تحلیل گران داده تا صاحبان کسب و کار غیر فنی طراحی شده اند.
ادغام مجموعه های داده پراکنده در یک مخزن مرکزی که از طریق HPE GreenLake برای ذخیره سازی فایل ها قابل دسترسی است – به طور کامل در سراسر پیکربندی های هوش مصنوعی ابری خصوصی HPE یکپارچه شده است – مدیریت داده ها را به عنوان بخشی از یک محیط ذخیره سازی یکپارچه و مقرون به صرفه بسیار آسان تر می کند، واتسون – هال می گوید: “مجموعه گزینه های زیرساخت به عنوان سرویس IaaS HPE GreenLake به مشتریان اجازه می دهد نحوه مصرف منابع فناوری اطلاعات را کنترل کنند. و به همراه گسترش مجموعه داده های ذخیرهشده مقیاس بندی میشود.”
و به طور حتم رشد خواهند کرد. با استناد به داده های بدست آمده از شرکت تحقیقاتی IDC، JLL انتظار دارد که هوش مصنوعی ظرفیت ذخیره سازی دیتاسنتر را تا ۱۸.۵ درصد طی سه سال آینده افزایش دهد (از ۱۰.۱ زتابایت در سال ۲۰۲۳ به ۲۱.۰ زتابایت در سال ۲۰۲۷).
“معماری های ذخیره سازی قدیمی برای مقیاس بندی با این سرعت طراحی نشده اند”، به گفته واتسون-هال. “آن ها برای برآورده کردن نیازهای این الزامات مبتنی بر هوش مصنوعی طراحی نشده اند. مقیاس بندی فراتر از معماری های معمولی آرایه است. ما سیستم های یک پلتفرمی با ۱۰۰ پتابایت را مشاهده می کنیم. این بسیار فراتر از آن چیزی است که اکثر سیستم های ذخیره سازی دیتاسنتر می توانند بدون دچار شدن به مشکل مدیریت کنند. حتی برای کسب و کارهای بزرگ نیز این یک چالش عظیم است که بدون راه حل ها و پشتیبانی شریک فناوری بر آن فائق آیند.”
علاوه بر این، بهترین شیوه های ذخیره سازی داده باید ملاحظات پایداری را در نظر بگیرند، گرینوود می گوید. “این یکی از مسائلی است که باعث شده سازمان ها درک کنند که نمی توانند همه داده های خود را برای همیشه نگه دارند. ذخیره سازی داده حتی زمانی که داده ها بایگانی شده اند نیز هزینه زیست محیطی دارد. این باید در ارزیابی کل هزینه مالکیت (TCO) لحاظ شود.”
گرینوود اضافه می کند: “این مسائل به دلیل افزایش داده هایی که هوش مصنوعی تولید می کند، تشدید شدهاند. ارتقای توانایی سازمان ها در مدیریت داده های خود، با ابزارهایی برای بهینه سازی استفاده از آن ها، به نتایج پایداری بهتر کمک می کند.”
صنایعی که از مزایای هوش مصنوعی بهره مند می شوند
فرصت های بهبود کارایی فرآیند ها با استفاده از هوش مصنوعی برای خودکارسازی عملیات و ارائه محصولات/خدمات جدید در صنایع مختلف بسیار زیاد است. اما با محیط های فوق العاده رقابتی امروز، مقیاس و سرعت استقرار حیاتی هستند.
گرینوود گزارش می دهد: “کسب و کارها متوجه می شوند که نمی توانند منابع انسانی و مالی خود را به طور گسترده ای به پروژه های هوش مصنوعی اختصاص دهند تا به بازار عرضه شوند. در خدمات مالی، به عنوان مثال، بانک ها اکنون در حال سرمایه گذاری در راه حل های پیش آزمایش شده و به عنوان خدمت هستند – بهجای پیگیری رویکرد ‘خودمان بسازیم’.” او به مثال تأیید اخیر بارکلیز از ابر GreenLake HPE به عنوان ستون اصلی استراتژی ابری ترکیبی خود اشاره می کند.
در حوزه سلامت، راه حل های HPE با پلتفرم داده WEKA به رادیولوژیست ها امکان می دهد تا از داده های تصویربرداری پزشکی بیشتری برای آموزش مدل های هوش مصنوعی که به پزشکان در تست های تشخیصی کمک می کنند و تجربه بیماران را بهبود می بخشند، استفاده کنند.
بخش هایی مانند خدمات عمومی به هوش مصنوعی به عنوان کمکی برای یافتن کارایی های عملیاتی و مدیریت بهتر نیروی کار نگاه می کنند که تیم ها را با خودکار سازی وظایف روتین و بهبود جریان کار یاری می دهد. واتسون-هال می گوید: “این باعث کاهش هزینه های عملیاتی، افزایش سرعت ارائه خدمات و تمرکز منابع انسانی بر فعالیت های پیچیده تر و ارزش افزوده می شود.”
در مرکز این چرخه های توسعه تسریع شده، استفاده هوش مصنوعی ابری خصوصی HPE از سرویس میکرو استنتاج Nvidia NIM قرار دارد – مجموعه ای رو به رشد از معماری های مرجع که به سازمان های مختلف امکان می دهد تا برنامه ها/موارد استفاده هوش مصنوعی مبتنی بر ابری را به سرعت پذیرش کنند.
NVIDIA NIM به ایجاد خطوط لوله داده، توسعه و تنظیم مدل های هوش مصنوعی مولد کمک می کند. هنگامی که مستقر میشود، NIM API های استاندارد صنعتی را برای یکپارچه سازی ساده در برنامه های هوش مصنوعی، چارچوب های توسعه و جریان های کاری ارائه می دهد.
امنیت در برابر نشت LLM
مدل های بزرگ زبان (LLMs) کلید استخراج بینش ها هستند وقتی که سازمان ها داده های اختصاصی خود را مورد بررسی قرار می دهند. ابرهای بزرگ مقیاس که تقریباً تنها محیط های عمومی بودند که سازمان ها می توانستند در آن ها کارهای مرتبط با هوش مصنوعی و LLM را توسعه دهند و اجرا کنند، نگرانی های امنیتی داده ها را افزایش می دادند. در حالی که LLM ها می توانند هدف حملات سایبری قرار گیرند، آموزش LLM ها می تواند داده های حساس را جذب کند که اگر به درستی مدیریت نشود، می تواند ریسک های امنیتی را به همراه داشته باشد.
گرینوود می گوید: “با استفاده از هوش مصنوعی ابری خصوصی HPE، سازمان ها اکنون می توانند LLM ها را در محل اجرا کنند، با تمامی ویژگی های عملکردی ابر که می خواهند، اما با امنیت بالا.” او اضافه می کند: “اگر داده های LLM به حوزه عمومی نشت کند، می تواند مشکلات جدی ایجاد کند اگر شامل مالکیت معنوی کسب و کار باشد. هوش مصنوعی ابر خصوصی HPE برای امنیت LLM هایی که کمک به توسعه و استقرار آن ها می کند، طراحی شده است.”
پذیرش سریع هوش مصنوعی توسط جریان اصلی تجاری، یک مهار قوی برای حمایت از ابر عمومی که بسیاری از استراتژی های فناوری اطلاعات سازمان ها را شکل می دهد، ثابت می کند. همانطور که گرینوود و واتسون-هال توصیف می کنند، از مرحله آزمایشی تا تولید، عوامل زیادی به نفع سازمان های آماده هوش مصنوعی هستند که ابر خصوصی را برای کنترل کامل تر پروژه های خود انتخاب می کنند. HPE تأیید می کند که بهینه سازی ذخیره سازی داده ها – بهبود یکپارچگی، تأخیر، قابلیت مدیریت – یک اولویت اساسی برای موفقیت در پروژه های هوش مصنوعی است.
صفر و یک، شماره ی یک
برای تجربه ی اینترنت پرسرعت و خدمات دیتا با کیفیتی بی نظیر، همین حالا به شرکت “صفر و یک” بپیوندید! ما ارائه دهنده ی خدمات اینترنت ADSL2+، TD-LTE و VDSL هستیم که تمامی نیازهای شما را در خانه و محل کار پوشش می دهند.
ویژگیهای ما:
- پوشش گسترده: دسترسی به اینترنت پرسرعت در هر نقطه ای از کشور.
- پشتیبانی ۲۴/۷: تیم پشتیبانی ما همیشه آماده ی پاسخگویی به شماست.
- قیمتهای مناسب: بهترین کیفیت را با قیمتی مقرون به صرفه تجربه کنید.
خدمات ما:
- +ADSL2: اتصال پایدار و سریع برای خانه و محل کار شما.
- TD-LTE: اینترنت پرسرعت با پوشش گسترده و بدون نیاز به خط تلفن.
- VDSL: اینترنتی با سرعت فوق العاده برای تجربه ای بینظیر.
همین حالا برای اطلاعات بیشتر به وب سایت ما مراجعه کنید و با ما در ارتباط باشید!
شرکت صفر و یک – اینترنت سریع و پایدار برای شما!