چگونه ویدئوهای دیپ فیک را تشخیص بدهیم و فریب نخوریم؟

0

در غوفای رقابت‌های ریاست جمهوری آمریکا، ترامپ به نقطه ضعف بایدن، یعنی پسرش-هانتر بایدن- پی برده بود و بعد مدتی یک ویدئوی مشکوک در مورد پرونده او در مذاکره با چینی‌ها که روزنامه‌نگاری به نام مارتین اسپن رو آن کار کرده بود، در اینترنت دست به دست می‌شد.

اما مشکل این بود که مارتین اسپن، یک آدم واقعی نبود، بلکه یک نویسنده فییک و ساخته هوش مصنوعی بود.

او توسط یک شبکه به نام generative adversarial network (GAN) ساخته شده بود.

کلا شبکه‌های عصبی با استفاده از قدرت سخت‌افزارها، توانایی یادگیری و آموزش به خود را دارند.

GANها در ساختن تصاویر شبیه به الگوی داده شده، خیلی خوب هستند و می‌توانند ضریب اشتباهات خود را کم کنند. اما کارشان یک جاهای می‌لنگد.

در این مقاله می‌خواهیم روی همین جاها تمرکز کنیم که «فعلا» با استفاده از آنها می‌شود تا حد زیادی ویدئوهای دیپ فیک را تشخیص داد.

یکی از این موارد توجه روی بک‌گراند صحنه و یا لباس شخص است. مثلا شما می‌بینید که پیراهنی که تن شخص است، بافت پارچه طبیعی ندارد و از همین جا شک می‌کنید که نکند ویدئو اصالت نداشته باشد.

چیز مهم دیگر توجه به چشم‌هاست. چشم‌ها همیشه چیز دشواری برای خلق کردن بوده‌اند. اگر روی چشم‌های زوم کنید شاید در ویدئوهای دیپ فیک متوجه نامتقارن بودن آنها بشوید.

در مورد مارتین اسپن، حتی یکی از چشم‌ها در ویدئوی ساختگی، دو قرنیه داشت!

گوش‌ها هم جای مناسبی برای فوکوس و تمرکز برای راستی‌آزمایی هستند. از آنجایی که گوش‌ها توسط موها تا حدی پنهان می‌شوند، دیتای اولیه برای شبکه عصبی زیاد نیست و از همین رو گاهی باعث ایجاد پوست و یا طرح غضروف غیرطبیعی و در نهایت لو رفتن ویدئوی ساختگی می‌شود.

چیز دیگری که می‌شود روی آن دقت کرد، خط رویش مو است. اگر این خط رویش مو با عکس‌ها و ویدئوهای واقعی مقایسه شود، احتمال تشخیص درست بالا می‌رود. در برخی موارد هم که اصلا خود خط رویش مو، الگوی خنده‌داری دارد و به تنهایی دیدن آنها در خود ویدئوی دیپ فیک باعث تشخیص می‌شود.

همه مواردی که در بالا پیشنهاد شد، فعلا کارا هستند و معلوم نیست که در آینده از روی همینها هم بشود، به تشخیص درست رسید!

ممکن است شما دوست داشته باشید

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.