با ظهور پروژه های هوش مصنوعی مانند GitHub's Copilot و OpenAI's ChatGPT ، این ایده مطرح شد که این پروژه ها امکان ایجاد کدهای ناامن رو هم ممکنه داشته باشن.
این پروژه ها با یسری کد عمومی آموزش داده میشن و در نتیجه ممکنه تو این کد ها موارد ناامن هم باشه و سیستم بتونه کد ناامن ایجاد کنه. برای رفع این مورد از تکنیک های مبتنی بر امضای و آنالیز استاتیک استفاده میکنن.
حالا تو این مقاله یه روشی رو پیدا کردن که از طریق رشته های Docstrings برای آموزش دادن استفاده میکنن. این رشته ها ، برای توضیحات در کد استفاده میشن و ابزار های استاتیک اونارو نادیده میگیرن، اما مدل یادگیرنده، یاد میگیره که اونارو هم جز مدل یادگیری حساب بکنه. در نتیجه امکان پیشنهاد کدهای ناامن رو هم پیدا میکنه.