فناوری فناوری عمومی

با استفاده از هوش مصنوعی جعل تصویر (Deepfake) می توانید به سادگی نوشتن متن،ویدیوی جعلی بسازید

عاطفه مکرمی
نوشته شده توسط عاطفه مکرمی

معرفی

در آخرین نمونه از تکنولوژی جعل (تغییر) تصویر Deepfake  (یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی و تشخیص چهره است)، محققان یک نرم افزار جدید را به نمایش گذاشته اند که از ماشین خود یادگیرنده استفاده می کند که متن ویدیو را می تواند کم یا اضافه یا حذف کند و کلماتی که از زبان فردی که در ویدیو بیرون می آید را عوض نماید.

این کار توسط دانشمندان دانشگاه استنفورد، موسسه Max planck، دانشگاه پرینستون و تحقيق ادوبي انجام شده و نشان مي دهد كه توانايي ما براي ويرايش آنچه افراد در فيلم ها مي گويند و ايجاد واقعيت مجازي هر روز افزايش مي يابد.

شما می توانید چند نمونه از خروجی سیستم ها را در زیر مشاهده نمایید،از جمله يك نسخه ويرايش شده از يك نقل قول مشهور از Apocalypse Now با اين مضمون” من استشمام ناپالم را در صبح دوست دارم “به من “استشمام تست فرانسوي را در صبح دوست دارم” تغيير داد.

اين كار در حال حاظر فقط در مرحله تحقيق است و به عنوان نرم افزار براي مصرف كننده در دسترس نيست،اما احتمالا خیلی طولی نمی کشد که سرویس های مشابه عمومی شود.براي مثال ادوبي كه پيش از اين جزئيات نمونه اوليه از نرم افزار به نام voco را به اشتراك گذاشته است كه به کاربران اجازه ميدهد ويرايش صداي ضبط شده را به اساني ویرایش يك تصوير انجام دهند که در این پژوهش از آن  استفاده شده است.

براي ايجاد يك فيلم ساختگي دانشمندان چندين تكنيك را با هم تركيب مي كنند اول انها فيلم را اسكن مي كنند تا واج هاي صحبت شده را از موضوع مجزا كنند این واج ها حروف صداداری هستند که اجزای کلمات را تشکیل می دهند مانند “oo” و “fuh” که این ها حالت چهره را وقتی که این صداها را در کنار هم قرار می گیرند مشخص میکند در نهايت انها يك مدل سه بعدي از نصف پایینی صورت فرد صحبت کننده درست می کنند.

هنگامي كه يك  شخص متن فيلم ها را ويرايش مي كند، نرم افزار تمام اطلاعات جمع اوري شده شامل واج و حروف بدون صدا(کلماتی که حالت چهره موقع بیان فرقی نمی کند)و مدل چهره سه بعدي براي ساختن فيلم جديد كه با ورودي متن مطابقت دارد تركيب مي كند.سپس جهت ايجاد نتيجه نهايي ان را بر روي فيلم اصلي قرار ميدهند.

به يك گروه ١٣٨ نفره جهت ازمايش فيلم هاي ساختگي نشان داده شد،حدود ٦٠ درصد از شركت كنندگان فكر كردند كه ويرايش ها واقعي بود،كه ممكن است به نظر خیلی کم بیاد،اما تنها ٨٠ درصد از همان گروه فكر كردن كه فيلم های اصلي هم بدون ويرايش بوده است(محققان فکر می کنند شاید به این علت باشد که به داوطلبان گفته شده بود جوابشان برای تحقیقات ادیت کردن ویدیو استفاده می شود برای همین آنها دنبال تقلبی بودن ویدیو گشته اند)

هرچند، مهم این است که به یاد داشته باشید محدودیت هایی برای این تکنولوژی وجود دارد.

برای نمونه الگوریتم ها در اینجا فقط برای مکالمه هایی به کار می رود که در آن سر به صورت کامل در تصویر وجود داشته باشد و به ۴۰ دقیقه داده ورودی نیاز می باشد و در بهترین حالت کیفیت فیلم های ساختگی، محققان از فرد سخن گو خواسته اند که صداهای جدید را برای تطبیق تغییرات ضبط کنند، براي توليد فيلم از AI ( هوش مصنوعي) استفاده می شود. (این به این علت است که صداهاي ساختگي بعضي وقت ها بخش بخش است اگر چه قطعا اين ويژگي در حال بهتر شدن است.

محققان همچنين متوجه شده اند كه هنوز نمي توانند حالت و بلندي صدا را تغيير دهند لذا منجر به نتایج غیر طبیعی می شود و هر گونه تغییر در صورت – برای مثال اگر شخصی دستانه خود را هين سخنراني تكان دهد – الگوريتم به طور كامل خراب مي شود.

بنابراین، تکنولوژی کامل نیست، اما این نوع محدودیت ها همیشه در خصوصيات مرحله اوليه تحقیق وجود دارد و تقریبا تضمین شده است که با گذشت زمان بر آن غلبه خواهند کرد.

پتانسيل صدمه هاي اين تكنولژي بسيار نگران كننده است و به محققان در اين حوزه اغلب انتقاد شدیدی میشود که به پتانسیل ضرر های این کار توجه ای نمی کنند دانشمندان درگیر این پروژه می گویند این مشکلات را در نظر گرفته اند.

در یک پست وبلاگی آنها نوشته اند: “هرچند روش ها برای دستکاری ویدیو و تصویر به اندازه خود مدیا قدیمی می باشد،اما ریسک سو استفاده خیلی بالا است وقتی که این نوع ارتباط را قبول می کنید برای مشخص سازی اصل مطلب بعضی وقت ها نیاز به ارائه مدارک معتبر می باشد. ما می دانیم که  اشخاص سو استفاده کننده از این نوع تکنولوژی، امکان دارد برای تخریب یک فرد از آن استفاده نمایند.”

اما راه حلي كه انها پيشنهاد مي كنند به سختی می تواند آرامبخش باشد، آنها مي گويند براي جلو گيري از سردرگمي ويرايش فيلم Al بايد از واترمارک ( Watermark ) یا متن روی تصویر استفاده شود.

اما واترمارک ها به راحتی توسط سایت های آنلاین حذف می شوند.جنس تقلبی نیازی به بدون نقص بودن ندارد تا تاثیرش را بگذارد. تعداد زیادی از اخبار جعلی را می توان با چند دقیقه سرچ پیدا کرد اما این باعث نمی شود که این نوع خبر منتشر نشود مخصوصا در جامعه ای که مردمش می خواهند این دروغ ها رو باور کنند تا اعتقاداتشان را ثابت کنند.

محققان خاطرنشان می کنند استفاده از تکنولوژی مانند این نیز دارای بسیاری از مزایای مفید است. همچنين,این امر می تواند به صنایع فیلم و تلویزیون کمک بزرگی کند, به انها اجازه مي دهد صحبت اشتباهی در فیلم را بدون اینکه نیاز به فیلم برداری مجدد باشد را اصلاح کند.

اما این مزایا به نظر خیلی با پتانسیل تخریبش مقایسه می شود. اگرچه یک بحث قابل قبولی می باشد که تبلیغات جعلی به اندازه خیلی از باورها خطرناک نمی باشد. با این حال پیشرفت در تحقیقات مشابه به این می تواند به شدت دردسرآفرین باشد.

منبع: theverge

[تعداد رای:2]

درباره نویسنده

عاطفه مکرمی

عاطفه مکرمی

درج دیدگاه