Get Mystery Box with random crypto!

#متن_شایعه «دنیا فهمید اینا نفهمیدن، Khuzestan has no water» | ویکی هوآکس؛ مرجع پاسخگویی به شایعات

#متن_شایعه

«دنیا فهمید اینا نفهمیدن، Khuzestan has no water»

#پاسخ_شایعه

ویدیویی که مشاهده می کنید با فناوری دیپ فیک (DeepFake) یا همان جعل عمیق تهیه شده است و واقعی نیست.

دیپ فیک فناوری جدیدی بر مبنای هوش مصنوعی است که به واسطه آن تصاویر و ویدیو های دروغین اما واقع گرایانه درست می‌شود و می‌تواند هر بیننده‌ای را تحت تاثیر خود قرار دهد. امروزه ویدیو های دیپ فیک بسیاری از هنرمندان و افراد مشهور ساخته می‌شود و بیننده بدون آنکه متوجه عدم صحت و واقعیت آنها شود، محتوای آن ها را باور کرده و به انتشار آن‌ها در فضای مجازی دست می‌زند.

بعنوان مثال در تهیه این کلیپ از تصاویر دیوید بکهام در سال ۲۰۱۷ و تصاویر کریستیانو رونالدو در سال ۲۰۱۶ که مربوط به تبلیغ اهدای خون است، استفاده گردیده است. ویدیوهای اصلی این دو فرد در منابع پاسخ شایعه، قابل مشاهده هستند.

فناوری دیپ فیک یا «جعل عمیق» برای اولین بار در سال ۲۰۱۴ و توسط یک دانشجوی مقطع دکترا به نام «ایان گودفلو» اختراع شد. از آنجا که این فناوری بر مبنای هوش مصنوعی است و نیازی به دخالت مستقیم انسان ندارد، هر فردی می‌تواند از طریق دیپ فیک، ویدیوی جعلی و در عین حال واقع‌گرایانه تولید کند. در نتیجه متاسفانه افراد با اهداف خصمانه می‌توانند فیلم‌های غیراخلاقی از چهره‌های مشهور تهیه و تولید کنند و زندگی شخصی آن‌ها را به راحتی به خطر بیندازند. علاوه بر ایجاد محتوای غیراخلاقی از افراد مختلف، دیپ فیک می‌تواند واقعیات جامعه را تحریف کرده و اطلاعات نادرست و غیرواقعی به افراد جامعه ارائه کند. در نتیجه حریم خصوصی افراد به راحتی مورد هدف قرار گرفته و دموکراسی و امنیت ملی یک کشور نیز به خطر می‌افتد.

شرکت‌های بزرگی مانند توییتر و مایکروسافت و فیسبوک به دنبال دست‌یابی به فناوری تشخیص دیپ‌فیک و جلوگیری از سوءاستفاده از آن هستند. با توجه به این که این تکنولوژی همراه با تکنولوژی‌های دیگر هر روز در حال پیشرفت می‌باشد، مایکروسافت با معرفی ابزاری به نام Video Authenticator به خط مقدم جلوگیری از سوءاستفاده از دیپ‌فیک رفته است. این ابزار جدید در حال حاضر برای استفاده‌ی عموم در دسترس نیست ولی چیزی که مشخص است، این ابزارهای مقابله و شناسایی تغییرات ویدئو‌ها و صدا‌ها باید هر روز همگام با پیشرفت فناوری دیپ‌فیک جلو بروند و عقب نمانند.

ماکروسافت همچنین از سرویسی خبر داده است که می‌تواند به تولیدکنندگان محتوا این قابلیت را بدهد که کد‌های پنهانی را به ویدئو‌های خود اضافه کنند تا در صورت دست‌کاری در آن ویدئو، قابل تشخیص باشد. این سرویس فعلا در دست آزمایش و رفع خطا در همکاری با شرکت‌های فعال در حوزه رسانه از جمله بی بی سی، رادیو کانادا و نیویورک تایمز می‌باشد.

مشاهده این مطلب و منابع در سایت ویکی هوآکس

ویکی هوآکس در اینستاگرام | ویکی هوآکس در توییتر

روشنگری آرمان ماست

رسانه باشید و این مطلب را با دوستان خود به اشتراک بگذارید.

بی تحقیق باور نکنید! به @Wikihoax
مرجع پاسخگویی به شایعات بپیوندید.