دانشمندان ابزاری برای تشخیص ویدئوهای دیپ فیک (جعلی) با استفاده از تحلیل بازتاب نور در چشم‌ها ساختند

2

ویدئوهای دیپ فیک روز به روز فراگیرتر می‌شوند. آنها با اهداف مختلف ساخته می‌شوند: شوخی – انتشار اخبار کاذب و حتی قرار دادن صورت مردم روی ویدئوهای غیراخلاقی.

به هر حال تشخیص جعلی بودن این ویدئوها گاهی خیلی دشوار می‌شود. اما ابزار هوش مصنوعی جدیدی که ساخته شده با راهی نسبتا ساده می‌خواهد، تشخیص این ویدئوها را ممکن کند. این ابزار تازه بازتاب نور در چشم‌ها را تحلیل می‌کند.

این ابزار توسط دانشمندان علوم کامپیوتر دانشگاه بوفالوی آمریکا ساخته شده است. در آزمایشی که انجام شد، در صورتی که ویدئو حالت پرتره از چهره را داشته باشد، یعنی چهره شخص در ویدئو کاملا مشخص باشد، ابزار در 94 درصد موارد می‌تواند ویدئوی دیپ فیک را تشخیص بدهد.

ابزار هوش مصنوعی روی بازتاب نور در قرنیه دقت می‌کند. قرنیه مانند آینه نور را بازتاب می‌دهد. اگر تصویر واقعی باشد، بازتاب نور در دو چشم مشابه است. اما تصاویر دیپ فیک معمولا از ایجاد بازتاب مشابه نور در دو چشم ناتوان هستند و با تحلیل موقعیت اشتباه بازتاب نور یا شکل متفاوت آنها در قرنیه‌های دو چشم می‌توان پی به دیپ فیک بودن ویدئو برد.

این سیستم بر اساس تحلیل خود، نمره‌ای به هر ویدئو می‌دهد که هر چه این مقدار کوچک‌تر باشد، احتمال دیپ فیک بودن ویدئو بیشتر می‌شود.

اما خب از الان می‌شود حدس زد که هم الگوریتم‌های دیپ فیک این نقش را دیر یا زود برطرف خواهند کرد و هم امکان تصحیح دستی این ناهمسانی بازتاب وجود دارد. به علاوه اگر در ویدئو فقط یک چشم مشخص باشد، مسلما از این ابزار تشخیصی نمی‌شود بهره برد.

از سوی دیگر اگر شخص در ویدئو به دوربین نگاه کند، احتمال مثبت کاذب شدن پاسخ ابزار وجود دارد. یعنی ابزار ممکن است به اشتباه یک ویدئو را دیپ فیک اعلام نماید.

مقاله‌ای در این مورد با فرمت PDF را می‌توانید در اینجا بخوانید.

اگر خواننده جدید سایت «یک پزشک»  هستید!
شما در حال خواندن سایت یک پزشک (یک پزشک دات کام) به نشانی اینترنتی www.1pezeshk.com هستید. سایتی با 18 سال سابقه که برخلاف اسمش سرشار از مطالب متنوع است!
ما را رها نکنید. بسیار ممنون می‌شویم اگر:
- سایت یک پزشک رو در مرورگر خود بوک‌مارک کنید.
-مشترک فید یا RSS یک پزشک شوید.
- شبکه‌های اجتماعی ما را دنبال کنید: صفحه تلگرام - صفحه اینستاگرام ما
- برای سفارش تبلیغات ایمیل alirezamajidi در جی میل یا تلگرام تماس بگیرید.
و دیگر مطالب ما را بخوانید. مثلا:

عکس‌های نوستالژیک: آدم‌های و تلویزیون‌هایشان در دوره اوج تلویزیون

دوره اوج شکوه تلویزیون کی بود؟ دست‌کم دوره اوج مونواوگ چه زمانی بود؟یک زمانی تلویزیون پیشرفته‌ترین وسیله ارتباطی ما با دنیای خارج بود. الان تلویزیون‌های هوشمند، گوشی و تبلت‌ها و لپ‌تاپ‌ها جای آن به اصطلاخ متکلم وحده را گرفته‌اند.…

۲۵ صدای نوستالژیک فناورانه قدیمی که کودکان امروزی به صورت معمول هرگز نمی‌شنوند!

یک ستاره سینمای کلاسیک را در نظر بگیرید مثلا همفری بوگارت را. تلفن را با یک دست در دست می‌گیرد، سیگاری به لب دارد و بعد با افه خاصی شماره‌گیر را می‌چرخاند و با صدای بم مردانه‌اش می‌گوید که نلفنچی فلانجا را برایم بگیر!چنین منظره‌ای دیگر…

اگر گوشی‌های موبایل، دهه‌ها زودتر اختراع می‌شدند

در دوره‌ای پس از همگانی شدن استفاده از گوشی‌های موبایل، تنوع ظاهری آنها بسیار زیاد بود و هیچ گوشی‌ای شبیه گوشی دیگر نبود. اما الان شکل همه گوشی‌ها تقریبا یکی شده است.ما خیلی منتظر گوشی‌های تاشو یا رول‌شونده ماندیم تا این یکنواختی را به…

بازسازی چهره شاعران ایرانی به کمک هوش مصنوعی Midjourney (میدجرنی)

چه کسی می‌داند مولدهای متن به عکس هوش مصنوعی در آینده به کدام سمت خواهند رفت. به نظر من روز به روز پیشرفته‌تر و متنوع‌تر می‌شوند.امروز داشتم فکر می‌کردم گاهی لازم می‌شود که شما باری تصویرسازی بهتر به جای توصیف متنی، ترکیبی از توصیف متنی…

محصولات رادیواکتیوی که در قرن بیستم در قالب کالاهای مصرفی عادی به مردم فروخته می‌شدند

پیش از درک خطراتی که قرار گرفتن در معرض تابش‌های رادیواکتیو برای انسان به همراه دارد، مردم و حتی دانشمندان می‌پنداشتند که مواد رادیواکتیو ترکیبات جالبی برای درخشان و نورانی کردن اشیا هستند. در ادامه چند مورد از عجیب‌ترین کاربردهای مواد…

این هنرمند با استفاده از هوش مصنوعی جمعی از ثروتمندترین آدم‌های جهان را در قالب آدم‌های فقیر تصور…

هنرمند هندی از هوش مصنوعی برای تولید تصاویری از ثروتمندترین و شناخته شده‌ترین افراد جهان - از بیل گیتس گرفته تا دونالد ترامپ - استفاده می‌کند تا تصور کند که اگر فقیر بودند چه شکلی می‌شدند.اگر آنها لباس‌های ژنده پوش پوشیده و در یک محله…
آگهی متنی در همه صفحات
دکتر فارمو / شیشه اتومبیل / زانوبند زاپیامکس / لیزر فوتونا / زانوبند زاپیامکس /بهترین مرکز لیزر ساری /داروخانه تینا /خرید مواد اولیه آرایشی در شیمی سنتر /خدمات فیزیوتراپی /لیفت صورت در تهران / کمربند طبی / زانوبند زاپیامکس / فروش‌ دوربین مداربسته هایک ویژن / biniclinic.com / کمربند پلاتینر / مراقبت پوست / مهدکودک فلکه اول تهرانپارس / سایت نوید / روپوش پزشکی / سرور مجازی ایران /بای پپ / ویدیوهای دیدنی /بهترین فیزیوتراپی تهران /خرید سیفتی باکس /ویکی درمان /خرید پروتز مو /حرف آخر /کاندوم / خرید سرور مجازی / بهترین کلینیک زخم تهران /فروشگاه لوازم آرایشی بهداشتی / مرکز خدمات پزشکی و پرستاری در منزل درمان نو /توانی نو /چاپ فلش / لاغری فوری / داروخانه اینترنتی آرتان / فروشگاه آنلاین زوجیم /درمانکده / ثبت برند /حمل بار دریایی از چین /سایت نوید /دانلود فیلم دوبله فارسی / دانلود فیلم هندی /فروشگاه لوازم آرایشی بهداشتی شاواز /پزشک زنان سعادت آباد / ایمپلنت دندان /خرید خودنویس /خدمات پرداخت ارزی نوین پرداخت /سریال ایرانی کول دانلود /کلاه کاسکت / لمینت متحرک دندان /کاشت مو / دانلود سوالات استخدامی آموزش و پرورش /فروشگاه اینترنتی زنبیل /خرید ساعت دیواری /ساعت تبلیغاتی /تجهیزات پزشکی /چاپ لیوان /خرید از آمازون /بهترین سریال های ایرانی /چاپ کلاه /کاشت مو /کاشت مو /پزشکا /قیمت ساک پارچه ای /بهترین دکتر لیپوماتیک در تهران /تولید محتوا /دانلود نرم افزار /مجتمع فنی ونک /
2 نظرات
  1. ابراهیم می گوید

    شبکه های عصبی که این تصاویر یا ویدیو ها را تولید می کند بر مبنای شبکه های GAN هستند که در واقع دو شبکه عصبی هستند که به روش خصمانه با هم رقابت می کنند یکی تصویر جعلی می سازد و دومین شبکه به صورت تصادفی تصویر شبکه جعل کننده و یا تصویر واقعی را دریافت می کند و باید تشخیص دهد تصویر ورودی جعلی است یا واقعی. این رقابت باعث می شود شبکه اول سعی کند تا جای ممکن جعل را بهتر انجام دهد.
    حال این به اصطلاح تکنولوژی جدید فقط کافی است در شبکه دوم بکار گرفته شود. حاصل آن تصاویری می شود که این تکنولوژی قادر به تشخیص جعلی بودن آنها نیست.

    1. علیرضا مجیدی می گوید

      ممنون از کامنت شما.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.

••4 5