لیست مطالب
یک ابزار کدنویسی مبتنی بر هوش مصنوعی مولد آمازون به نام Q Developer، با یک رخنه امنیتی مواجه شد. در این اتفاق، یک هکر با نفوذ به این ابزار، کدهای مخربی را در قالب یک بهروزرسانی قانونی جا زد. این امر به هکر اجازه داد تا به ابزار دستور دهد فایلهای کامپیوتر کاربران را حذف کند. این حادثه، آسیبپذیریهای موجود در توسعه نرمافزار مبتنی بر هوش مصنوعی را برجسته میکند، چرا که بسیاری از سازمانهایی که از هوش مصنوعی برای کدنویسی استفاده میکنند، این کار را به روشهای پرخطر انجام میدهند.
چگونه هکرها به ابزار کدنویسی هوش مصنوعی آمازون، Amazon Q، نفوذ کردند؟
این حادثه در اواخر ژوئن رخ داد، زمانی که هکر یک به روزرسانی به ظاهر قانونی یا به اصطلاح "درخواست کشش" (Pull Request) را به مخزن کد منبع باز گیتهاب (متعلق به مایکروسافت) که میزبان کد Q Developer آمازون است، ارسال کرد. هکر با جاسازی دستورالعمل های مخفی مخرب، از ابزار کدنویسی آمازون سوء استفاده کرد. آمازون، مانند بسیاری از شرکت های فناوری، به توسعه دهندگان خارجی اجازه میدهد تا از طریق این "درخواست های کشش" بهبودهایی را در کد پیشنهاد دهند که در این مورد، بدون شناسایی دستورات مخرب، تایید شد.
این به روزرسانی مخرب که شامل دستورالعملهای پنهانی برای بازگرداندن سیستم ها به "حالت نزدیک به کارخانه" بود، شناسایی نشد و طبق گزارش ها تایید شد. کاری که هکر انجام داد این بود که با استفاده از مهندسی اجتماعی، به ابزار هوش مصنوعی دستور داد "یک سیستم را به حالت نزدیک به کارخانه پاکسازی کند" و عملاً آن را برای بازگرداندن سیستمها به حالت اولیه و خالی خود دستکاری کرد. این اتفاق نشان داد که چگونه ابزارهای هوش مصنوعی میتوانند از طریق دستورات ساده در پلتفرمهایی مانند گیتهاب به خطر بیفتند.
آمازون به طور سهوی نرمافزار دستکاری شده Q Developer را توزیع کرد. این بدان معنا بود که حتی مشتریان آمازون که از نرمافزار Q استفاده میکردند نیز با خطر حذف فایلهای خود مواجه بودند. خوشبختانه برای آمازون، هکر به عمد خطر را برای کاربران نهایی پایین نگه داشته بود تا آسیبپذیری را برجسته کند و این شرکت اعلام کرد که "به سرعت" مشکل را برطرف کرده است.
کدنویسی وایبر شاید راه حل مناسبی باشد، اما یک نکته امنیتی وجود دارد

با این حال، این رخنه نگرانیهای امنیتی گستردهتری را در توسعه نرمافزار مبتنی بر هوش مصنوعی برجسته میکند. هوش مصنوعی مولد در حال تغییر کدنویسی است و به توسعهدهندگان این امکان را میدهد که با تکمیل خودکار کد یا نوشتن آن از روی دستورات زبان طبیعی، ساعتها در وقت خود صرفهجویی کنند، روندی که "کدنویسی حسی" (vibe coding) نامیده میشود. استارتآپهایی مانند Replit، Lovable و Figma از این روند بهره بردهاند و اغلب بر روی مدلهایی مانند ChatGPT از OpenAI یا Claude از Anthropic ساخته شدهاند.
با این حال، آسیبپذیریها همچنان باقی است. گزارش وضعیت ریسک برنامههای کاربردی سال ۲۰۲۵ توسط Legit Security نشان داد که ۴۶ درصد از سازمانهایی که از هوش مصنوعی برای توسعه نرمافزار استفاده میکنند، این کار را به روشهای پرخطر انجام میدهند و بسیاری از آنها از محل استقرار هوش مصنوعی در سیستمهای خود بیاطلاع هستند. حوادث دیگر نیز این روند را تایید میکنند. Lovable که توسط فوربز به عنوان سریعترین استارتآپ نرمافزاری در حال رشد توصیف شده است، اخیراً پایگاههای داده خود را بدون محافظت رها کرده و دادههای کاربران را در معرض دید قرار داده است. Replit، یکی از رقبای آن، این نقص را کشف کرد و Lovable را وادار کرد در توییتر اعتراف کند: "ما هنوز از نظر امنیتی به جایی که میخواهیم نرسیدهایم."
توسعه دهندگان چه باید بکنند؟
برای کاهش خطرات، کارشناسان پیشنهاد می کنند که به مدلهای هوش مصنوعی دستور داده شود که کد امن را در اولویت قرار دهند یا ممیزی انسانی کدهای تولید شده توسط هوش مصنوعی را الزامی کنند، اگرچه این کار میتواند کارایی را کاهش دهد. از آنجایی که "کدنویسی حسی" توسعه نرمافزار را دموکراتیک میکند، چالشهای امنیتی که ایجاد میکند، نیازمند توجه فوری برای جلوگیری از سوءاستفادههای آینده است.
منبع:
How Amazon's 'AI mistake' is a basic lesson for every engineer using Gen-AI for coding