Get Mystery Box with random crypto!

مدل هوش مصنوعی در هشت شهر آمریکا آزمایش شد و جنایات را با دقت | جهان چگونه کار می کند؟

مدل هوش مصنوعی در هشت شهر آمریکا آزمایش شد و جنایات را با دقت ۸۰ تا ۹۰ درصد پیش‌بینی می‌کند، بدون اینکه دچار هیچ گونه تعصبی باشد.

این الگوریتم یک هفته قبل از وقوع جرم در شهرهای ایالات متحده با موفقیت پیش بینی کرد. چگونه این الگوریتم را ساخته شد؟

شهر شیکاگو و هفت شهر دیگر که به آنها نگاه کردیم شروع به انتشار گزارش رویدادهای جرم و جنایت در ملا عام کرده‌اند. در شیکاگو، اینها در واقع روزانه با یک هفته تاخیر به روز می شوند.

گزارش‌ این رویدادها حاوی اطلاعاتی درباره آنچه اتفاق افتاده، نوع جنایت، محل وقوع، طول و عرض جغرافیایی، طول جغرافیایی و مقطع زمانی است. همچنین اطلاعاتی در مورد اینکه آیا هنگام تعامل با افسران پلیس دستگیر شده اند یا خیر، داریم.

بنابراین ما با گزارش این رویدادها شروع می کنیم و سپس شهر را به مناطق کوچکی از حدود دو بلوک در دو بلوک – به عرض حدود ۳۰۰ متر دیجیتالی تقسیم می کنیم. و در یکی از آن قسمت‌ها، این سری زمانی از این رویدادهای مختلف، مانند جنایات خشونت‌آمیز، دزدی، قتل و غیره را خواهیم دید. این منجر به ده ها هزار سری زمانی می شود که در حال تکمیل هستند.

کاری که الگوریتم ما انجام می‌دهد این است که به این سری‌های زمانی متقابل نگاه می‌کند، سپس متوجه می‌شود که چگونه به یکدیگر وابسته هستند و چگونه یکدیگر را محدود می‌کنند، بنابراین چگونه یکدیگر را شکل می‌دهند. این یک مدل واقعا پیچیده را می سازد.

سپس می‌توانید پیش‌بینی کنید که مثلاً از یک هفته قبل در یک قسمت خاص چه اتفاقی می‌افتد،، با دقت به اضافه یا منهای یک روز. برای مثال در شیکاگو امروز چهارشنبه است. با استفاده از الگوریتم ما می توان گفت که چهارشنبه هفته آینده در تقاطع خیابان ۳۷ و خیابان جنوب غربی، قتل رخ خواهد داد.

مردم نگرانند که از این به عنوان ابزاری برای زندانی کردن افراد قبل از ارتکاب جرم استفاده شود. این اتفاق نخواهد افتاد، زیرا توانایی انجام آن را ندارد. فقط یک رویداد را در یک مکان خاص پیش بینی می کند. به شما نمی گوید چه کسی قرار است آن را انجام دهد. نمی توان از آن به همان شکلی که در فیلم گزارش اقلیت استفاده می شود استفاده کرد.

در شیکاگو، بیشتر افرادی که جان خود را در جنایات خشونت آمیز از دست می دهند، عمدتاً به دلیل خشونت گروهی است. شبیه فیلم شرلوک هلمز نیست که در آن قتل های پیچیده ای در حال وقوع باشد. اگر یک هفته قبل در مورد آن بدانید، در واقع بسیار قابل اجرا است، می توانید مداخله کنید. این فقط مستلزم تشدید اجرای قانون و اعزام افسران پلیس به آنجا نیست، راه‌های دیگری نیز برای مداخله اجتماعی وجود دارد تا احتمال وقوع جرم در واقع کاهش یابد و در حالت ایده‌آل، هرگز اتفاق نیفتد.

کاری که ما می خواهیم انجام دهیم این است که نوعی بهینه سازی سیاست را امکان پذیر کنیم. نمی‌خواهیم از این به عنوان یک ابزار سیاستی صرفاً پیش‌بینی‌کننده استفاده شود. ما می خواهیم بهینه سازی خط مشی استفاده اصلی از آن باشد. ما باید آن را فعال کنیم، زیرا تنها گذاشتن یک مقاله و داشتن الگوریتم کافی نیست. ما از شهردار یا مدیران می خواهیم که از مدل تولید شده برای انجام شبیه سازی و اطلاع رسانی خط مشی استفاده کنند.

الگوریتم های قبلی از این نوع به دلیل ایجاد سوگیری، به عنوان مثال، از نظر پروفایل های نژادی به شدت مورد انتقاد قرار گرفته اند. این را چگونه حساب می کنید؟

روش‌هایی که قبلاً امتحان شده‌اند عبارتند از یادگیری ماشینی مستقیم، ابزارهای آماده که در آن مجموعه داده‌ها را می‌گیرید، مشخص می‌کنید ویژگی‌های مهم چیست، سپس از آن ویژگی‌ها با یک شبکه عصبی پیچیده استاندارد برای تلاش برای پیش‌بینی استفاده می‌کنید.

مشکل این رویکرد این است که به محض اینکه می گویید برخی ویژگی ها مهم هستند، احتمالاً چیزهایی را از دست خواهید داد، بنابراین نتایج گمراه کننده ای دریافت خواهید کرد. این اتفاق در اداره پلیس شیکاگو (در سال ۲۰۱۴-۲۰۱۶) افتاد. آن‌ها با استفاده از معادله‌ای شامل ویژگی‌هایی مانند سابقه دستگیری، افرادی را در فهرست قرار می‌دادند که احتمالاً مرتکب یا قربانی خشونت‌های مسلحانه بودند. و این باعث شد که بخش بزرگی از سیاهپوستان در لیست قرار بگیرند.

ما سعی کرده ایم تا حد امکان سوگیری را کاهش دهیم. به این ترتیب است که مدل ما با سایر مدل های قبلی متفاوت است.

بسیاری از مردم نگران عدم شفافیت در فرآیند تصمیم گیری هوش مصنوعی هستند. آیا این موضوع مشکلی دارد؟

سیستم‌های هوش مصنوعی برای مدل‌سازی سیستم‌های پیچیده‌تر و بیشتر استفاده شده‌اند، بنابراین جای تعجب نیست که بسیاری از آنها شبیه جعبه سیاه به نظر می‌رسند. آنها را با نحوه کار قبلی مقایسه کنید. در آن زمان، ما فقط یک معادله دیفرانسیل کوچک برای یک سیستم داشتیم که به ما این احساس را می داد که آن را درک کرده ایم.