چگونه ویدئوهای دیپ فیک را تشخیص بدهیم و فریب نخوریم؟

در غوفای رقابتهای ریاست جمهوری آمریکا، ترامپ به نقطه ضعف بایدن، یعنی پسرش-هانتر بایدن- پی برده بود و بعد مدتی یک ویدئوی مشکوک در مورد پرونده او در مذاکره با چینیها که روزنامهنگاری به نام مارتین اسپن رو آن کار کرده بود، در اینترنت دست به دست میشد.
اما مشکل این بود که مارتین اسپن، یک آدم واقعی نبود، بلکه یک نویسنده فییک و ساخته هوش مصنوعی بود.
او توسط یک شبکه به نام generative adversarial network (GAN) ساخته شده بود.
کلا شبکههای عصبی با استفاده از قدرت سختافزارها، توانایی یادگیری و آموزش به خود را دارند.
GANها در ساختن تصاویر شبیه به الگوی داده شده، خیلی خوب هستند و میتوانند ضریب اشتباهات خود را کم کنند. اما کارشان یک جاهای میلنگد.
در این مقاله میخواهیم روی همین جاها تمرکز کنیم که «فعلا» با استفاده از آنها میشود تا حد زیادی ویدئوهای دیپ فیک را تشخیص داد.
یکی از این موارد توجه روی بکگراند صحنه و یا لباس شخص است. مثلا شما میبینید که پیراهنی که تن شخص است، بافت پارچه طبیعی ندارد و از همین جا شک میکنید که نکند ویدئو اصالت نداشته باشد.
چیز مهم دیگر توجه به چشمهاست. چشمها همیشه چیز دشواری برای خلق کردن بودهاند. اگر روی چشمهای زوم کنید شاید در ویدئوهای دیپ فیک متوجه نامتقارن بودن آنها بشوید.
در مورد مارتین اسپن، حتی یکی از چشمها در ویدئوی ساختگی، دو قرنیه داشت!
گوشها هم جای مناسبی برای فوکوس و تمرکز برای راستیآزمایی هستند. از آنجایی که گوشها توسط موها تا حدی پنهان میشوند، دیتای اولیه برای شبکه عصبی زیاد نیست و از همین رو گاهی باعث ایجاد پوست و یا طرح غضروف غیرطبیعی و در نهایت لو رفتن ویدئوی ساختگی میشود.
چیز دیگری که میشود روی آن دقت کرد، خط رویش مو است. اگر این خط رویش مو با عکسها و ویدئوهای واقعی مقایسه شود، احتمال تشخیص درست بالا میرود. در برخی موارد هم که اصلا خود خط رویش مو، الگوی خندهداری دارد و به تنهایی دیدن آنها در خود ویدئوی دیپ فیک باعث تشخیص میشود.
همه مواردی که در بالا پیشنهاد شد، فعلا کارا هستند و معلوم نیست که در آینده از روی همینها هم بشود، به تشخیص درست رسید!