فناوری خطرناک؛ جعل ویدئو با نسبت دادن هر صدایی به گوینده ممکن شد!

کدخبر: ۲۳۸۰۵۸
اقتصاد نیوز:با پیشرفت فناوری هوش مصنوعی تولید ویدئوهایی ممکن شده که در آنها می توان هر صدایی را به تصویر افراد مختلف اضافه کرد و کاری کرد که این تصاویر کاملا باورپذیر جلوه کنند.
فناوری خطرناک؛ جعل ویدئو با نسبت دادن هر صدایی به گوینده ممکن شد!

به گزارش اقتصاد نیوز و به نقل از خبرگزاری فارس، با پیشرفت فناوری هوش مصنوعی تولید ویدئوهایی ممکن شده که در آنها می توان هر صدایی را به تصویر افراد مختلف اضافه کرد و کاری کرد که این تصاویر کاملا باورپذیر جلوه کنند.

 این نوع ویدئوهای تقلبی باورپذیر به اصطلاح ویدئوهای دیپ فیک نامیده می شوند. کلمه Deepfake ترکیبی از دو کلمه deep learning و کلمه Fake است.

فناوری هوش مصنوعی با پردازش تصاویر ویدئویی و بررسی صدای افراد سخنگو در این ویدئوها می تواند هر متنی را به جای صدای این افراد جایگزین کند. این فناوری با تغییر حرکات دهان و صورت گوینده کاری می کند بینندگان کاملا باور کنند اظهارات مذکور واقعا از دهان آن افراد خارج شده است.

فناوری یادشده می تواند تبعات سیاسی و اجتماعی گسترده ای داشته باشد. به عنوان مثال از این طریق می توان اظهارات جنجالی را به سیاستمداران مشهور نسبت داد و بین کشورها درگیری و نزاع ایجاد کرد. همچنین از این فناوری می توان برای تهیه ویدئوهای جنجالی یا مبتذل از اشخاص مشهور و اخاذی از آن ها سواستفاده کرد.

پژوهشگران دانشگاه کارنگی ملون با استفاده از روشی موسوم به Recycle-GAN این فناوری را یک گام دیگر به جلو برده اند و کاری کرده اند که بتوان صدای گوینده ای در یک ویدئو را بر روی تصویر گوینده دیگری در یک ویدئو با دقت کامل مونتاژ کرد. نکته مهم اعمال تغییرات در چهره گوینده هدف به منظور باورپذیر کردن ویدئوی جعلی است.

این محققان به عنوان مثال تصویر ماریت لوتر کینگ را با صدای سخنرانی از باراک اوباما پیوند زده اند. علاقمندان برای کسب اطلاعات بیشتر در این زمینه می توانند به نشانی http://www.cs.cmu.edu/~aayushb/Recycle-GAN مراجعه کنند.

اخبار روز سایر رسانه ها
    تیتر یک
    کارگزاری مفید