دانشمندان ابزاری برای تشخیص ویدئوهای دیپ فیک (جعلی) با استفاده از تحلیل بازتاب نور در چشمها ساختند

ویدئوهای دیپ فیک روز به روز فراگیرتر میشوند. آنها با اهداف مختلف ساخته میشوند: شوخی – انتشار اخبار کاذب و حتی قرار دادن صورت مردم روی ویدئوهای غیراخلاقی.
به هر حال تشخیص جعلی بودن این ویدئوها گاهی خیلی دشوار میشود. اما ابزار هوش مصنوعی جدیدی که ساخته شده با راهی نسبتا ساده میخواهد، تشخیص این ویدئوها را ممکن کند. این ابزار تازه بازتاب نور در چشمها را تحلیل میکند.
این ابزار توسط دانشمندان علوم کامپیوتر دانشگاه بوفالوی آمریکا ساخته شده است. در آزمایشی که انجام شد، در صورتی که ویدئو حالت پرتره از چهره را داشته باشد، یعنی چهره شخص در ویدئو کاملا مشخص باشد، ابزار در 94 درصد موارد میتواند ویدئوی دیپ فیک را تشخیص بدهد.
ابزار هوش مصنوعی روی بازتاب نور در قرنیه دقت میکند. قرنیه مانند آینه نور را بازتاب میدهد. اگر تصویر واقعی باشد، بازتاب نور در دو چشم مشابه است. اما تصاویر دیپ فیک معمولا از ایجاد بازتاب مشابه نور در دو چشم ناتوان هستند و با تحلیل موقعیت اشتباه بازتاب نور یا شکل متفاوت آنها در قرنیههای دو چشم میتوان پی به دیپ فیک بودن ویدئو برد.
این سیستم بر اساس تحلیل خود، نمرهای به هر ویدئو میدهد که هر چه این مقدار کوچکتر باشد، احتمال دیپ فیک بودن ویدئو بیشتر میشود.
اما خب از الان میشود حدس زد که هم الگوریتمهای دیپ فیک این نقش را دیر یا زود برطرف خواهند کرد و هم امکان تصحیح دستی این ناهمسانی بازتاب وجود دارد. به علاوه اگر در ویدئو فقط یک چشم مشخص باشد، مسلما از این ابزار تشخیصی نمیشود بهره برد.
از سوی دیگر اگر شخص در ویدئو به دوربین نگاه کند، احتمال مثبت کاذب شدن پاسخ ابزار وجود دارد. یعنی ابزار ممکن است به اشتباه یک ویدئو را دیپ فیک اعلام نماید.
مقالهای در این مورد با فرمت PDF را میتوانید در اینجا بخوانید.
شبکه های عصبی که این تصاویر یا ویدیو ها را تولید می کند بر مبنای شبکه های GAN هستند که در واقع دو شبکه عصبی هستند که به روش خصمانه با هم رقابت می کنند یکی تصویر جعلی می سازد و دومین شبکه به صورت تصادفی تصویر شبکه جعل کننده و یا تصویر واقعی را دریافت می کند و باید تشخیص دهد تصویر ورودی جعلی است یا واقعی. این رقابت باعث می شود شبکه اول سعی کند تا جای ممکن جعل را بهتر انجام دهد.
حال این به اصطلاح تکنولوژی جدید فقط کافی است در شبکه دوم بکار گرفته شود. حاصل آن تصاویری می شود که این تکنولوژی قادر به تشخیص جعلی بودن آنها نیست.
ممنون از کامنت شما.