دانشمندان ابزاری برای تشخیص ویدئوهای دیپ فیک (جعلی) با استفاده از تحلیل بازتاب نور در چشم‌ها ساختند

2

ویدئوهای دیپ فیک روز به روز فراگیرتر می‌شوند. آنها با اهداف مختلف ساخته می‌شوند: شوخی – انتشار اخبار کاذب و حتی قرار دادن صورت مردم روی ویدئوهای غیراخلاقی.

به هر حال تشخیص جعلی بودن این ویدئوها گاهی خیلی دشوار می‌شود. اما ابزار هوش مصنوعی جدیدی که ساخته شده با راهی نسبتا ساده می‌خواهد، تشخیص این ویدئوها را ممکن کند. این ابزار تازه بازتاب نور در چشم‌ها را تحلیل می‌کند.

این ابزار توسط دانشمندان علوم کامپیوتر دانشگاه بوفالوی آمریکا ساخته شده است. در آزمایشی که انجام شد، در صورتی که ویدئو حالت پرتره از چهره را داشته باشد، یعنی چهره شخص در ویدئو کاملا مشخص باشد، ابزار در ۹۴ درصد موارد می‌تواند ویدئوی دیپ فیک را تشخیص بدهد.

ابزار هوش مصنوعی روی بازتاب نور در قرنیه دقت می‌کند. قرنیه مانند آینه نور را بازتاب می‌دهد. اگر تصویر واقعی باشد، بازتاب نور در دو چشم مشابه است. اما تصاویر دیپ فیک معمولا از ایجاد بازتاب مشابه نور در دو چشم ناتوان هستند و با تحلیل موقعیت اشتباه بازتاب نور یا شکل متفاوت آنها در قرنیه‌های دو چشم می‌توان پی به دیپ فیک بودن ویدئو برد.

لیزر هموروئید درمان بواسیر در کلینیک تخصصی هموروئید تهران

این سیستم بر اساس تحلیل خود، نمره‌ای به هر ویدئو می‌دهد که هر چه این مقدار کوچک‌تر باشد، احتمال دیپ فیک بودن ویدئو بیشتر می‌شود.

اما خب از الان می‌شود حدس زد که هم الگوریتم‌های دیپ فیک این نقش را دیر یا زود برطرف خواهند کرد و هم امکان تصحیح دستی این ناهمسانی بازتاب وجود دارد. به علاوه اگر در ویدئو فقط یک چشم مشخص باشد، مسلما از این ابزار تشخیصی نمی‌شود بهره برد.

از سوی دیگر اگر شخص در ویدئو به دوربین نگاه کند، احتمال مثبت کاذب شدن پاسخ ابزار وجود دارد. یعنی ابزار ممکن است به اشتباه یک ویدئو را دیپ فیک اعلام نماید.

مقاله‌ای در این مورد با فرمت PDF را می‌توانید در اینجا بخوانید.

   

پستهای اخیر

۵ آیین درخشان که افراد بسیار موفق هر روز از آن‌ها پیروی می‌کنند

اغلب اوقات، وقتی می‌خواهیم درباره بهره‌وری صحبت کنیم؛ صرفا عادت‌ها و نکات مجرد و مجزای از یکدیگر را بیان می‌کنیم؛ در حالی‌که بیشتر به یک سیستم نیاز داریم. افراد مثبت و موفق از چه برنامه‌ای استفاده می‌کنند؟ چه سیستمی از نظر علمی اجازه…

یک مینی‌سریال عالی تازه: «میر» از «ایست‌تاون» با بازی کیت وینسلت و گای پیرس

داخل یک سایت دانلود بود که در عکس‌های بندانگشتی مربوط به سریال‌های تازه، یک لحظه عکس کیت وینسلت را دیدم. خب، وقتی می‌بینی که کیت وینسلت با آن سابقه درخشان در بازیگری سینمایی، در سریالی شرکت کرده، نمی‌توانی از آن صرف‌نظر کنی. اسم…

اپل سرویس پادکست اشتراکی راه‌اندازی کرد: گوش دادن بدون تبلیغات و دسترسی به محتواهای اختصاصی

اپل سرویس اشتراکی پادکست پلاس را برای ارائه خدمات و مزایای بیشتر به کاربران راه‌اندازی کرد. مدت‌ها بود سرویس و اپلیکیشن Apple Podcast بدون تغییراتی به کار خود ادامه می‌داد و اینک اپل خبرهای خوبی برای کاربران این سرویس دارد. اپل در مراسم…

اپل تی‌وی ۴K جدید معرفی شد: با تراشه A12 بیونیک و ریموت کاملا جدید

اپل یک مدل جدید از محصول Apple TV 4K خود با تراشه ارتقایافته‌تر و برخی ویژگی‌های جدید معرفی کرد. اپل تی‌وی 4K جدید از تراشه آشنای A12 Bionic سود می‌برد تا تصاویر ویدئویی HDR را با نرخ فریم ریت بالاتر اجرا کند. به علاوه، تراشه جدید قدرتی…

آیپد پرو جدید با پردازنده M1،نمایشگر حیرت‌انگیز مجهز به فناوری مینی LED و پشتیبانی از ۵G معرفی شد

اپل امشب در مراسم Sprint Loaded از آیپد پرو پرچم‌دار جدید خود رونمایی کرد. آیپد پرو ۱۲.۹ اینچی جدید کاملا یک دستگاه ارتقایافته و مجهز به فناوری‌های جدید و پیشگام اپل از جمله پردازنده M1، پشتیبانی از 5G و فناوری نمایشگر مینی LED به همراه یک…

اپل یک آی‌مک نازک با پردازنده M1 و رنگ‌بندی متنوع و جذاب معرفی کرد

اپل امشب در مراسم بهار خود از یک مدل کامپیوتر iMac بازطراحی شده و باریک‌تر، پردازنده اپل سیلیون M1 و کیس‌های رنگی و بسیار متنوع رونمایی کرد. اپل می‌گوید این آی‌مک از ابتدا برای استفاده M1 طراحی شده است. آی‌مک جدید دارای نمایشگر ۲۴ اینچی…
2 نظرات
  1. ابراهیم می گوید

    شبکه های عصبی که این تصاویر یا ویدیو ها را تولید می کند بر مبنای شبکه های GAN هستند که در واقع دو شبکه عصبی هستند که به روش خصمانه با هم رقابت می کنند یکی تصویر جعلی می سازد و دومین شبکه به صورت تصادفی تصویر شبکه جعل کننده و یا تصویر واقعی را دریافت می کند و باید تشخیص دهد تصویر ورودی جعلی است یا واقعی. این رقابت باعث می شود شبکه اول سعی کند تا جای ممکن جعل را بهتر انجام دهد.
    حال این به اصطلاح تکنولوژی جدید فقط کافی است در شبکه دوم بکار گرفته شود. حاصل آن تصاویری می شود که این تکنولوژی قادر به تشخیص جعلی بودن آنها نیست.

    1. علیرضا مجیدی می گوید

      ممنون از کامنت شما.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.