واقعیت کجایی؟! وکلاً با توجه به رواج دیپ فیک به سادگی ادعا می‌کنند که ویدئوهای واقعی، ساختگی هستند

ماه گذشته، وکلای ایلان ماسک، مدیرعامل تسلا، استدلال کردند که ویدئوهای ضبط شده از او در سال ۲۰۱۶ که حاوی اظهارنظرهای او درباره نرم‌افزار Autopilot خودرو بود، می‌توانند جعلی باشد.

در حالی که قاضی استدلال‌های وکلاً را نپذیرفت و به ماسک دستور داد تا تحت سوگند شهادت دهد، این روند که شروع شده، می‌تواند نگران‌کننده باشد. از آنجایی که ابزار‌های مولد مبتنی بر هوش مصنوعی ترکیب صدا‌ها و چهره‌های شخصیت‌های عمومی را آسان‌تر از همیشه می‌کنند، وکلا در تلاش هستند تا از فرصت استفاده کنند و به این بهانه، اساس یک واقعیت واقعی مشترک را تضعیف کنند.

NPR گزارش می‌دهد که این موضوع کارشناسان را عمیقاً نگران کرده است، چرا که این پدیده می‌تواند بر باور‌های هیئت منصفه و حتی عموم مردم تأثیر بگذارد.

هانی فرید، کارشناس پزشکی قانونی دیجیتال و استاد دانشگاه کالیفرنیا در برکلی، به NPR گفت که او نگران آینده‌ای است که در آن شواهد مربوط به “خشونت پلیس، نقض حقوق بشر، سیاستمداری که رفتار و گفتاری نامناسب یا غیرقانونی داشته” به دلیل احتمال جعلی بودن، راه گریز پیدا کند.

او گفت: «ناگهان دیگر واقعیتی وجود ندارد.»

وکلای ماسک اولین کسانی نبودند که استدلال کردند که دیپ فیک در دادگاه مورد استناد قرار گرفته است. به گزارش NPR، دو متهم که در شورش ۶ ژانویه حضور داشتند، تلاش کردند ادعا کنند ویدیو‌هایی که آن‌ها را در «کاپیتول» نشان می‌دهد ممکن است دستکاری شده با هوش مصنوعی باشد.

گای رفیت، یکی از متهمان، ادعا کرد که شواهد سمعی و بصری که از او گرفته شده جعلی هستند، استدلال‌هایی که بعداً توسط قاضی رد شد.

اما ممکن است همیشه اینطور نشود زیرا قوانین ایالات متحده به طرز تاسف آوری برای اینگونه موارد مجهز و آماده نیستند.

ربکا دلفینو، دانشیار دانشکده حقوق لویولا، لس آنجلس، در مقاله مروری فوریه نوشت: «متأسفانه، قانون پاسخ روشنی به تکیه وکیل رفیت به دیپ فیک به عنوان دفاع ارائه نمی‌دهد..»

دلفینو استدلال می‌کند که وکلاً در مواردی با دیپ فیک خواندن ویدئوها، به « تعصب و شک و تردید هیئت منصفه در مورد واقعی بودن» دامن می‌زنند.  دستورالعمل فعلی «قبل از ظهور فناوری دیپ‌فیک» توسعه داده شده و روند فعلی نگران‌کننده است.

خطرها زیاد هستند. با گسترش گسترده رسانه‌های دستکاری شده، اعتماد عمومی به آرامی از بین می‌رود زیرا خطوط بین واقعیت و داستان به صورت پیوسته محو می‌شود.

بابی چسنی و دانیل سیترون، محققین حقوقی، این تناقض را “سود سهام دروغگو” نامیدند.

آن‌ها در یک مقاله بررسی قانون در سال ۲۰۱۸ نوشتند: «از آنجایی که عموم مردم متوجه شده‌اند که به طور باورپذیری می‌توان ویدئو و صدا را جعل کرد، برخی سعی می‌کنند از پاسخگویی در مورد اقدامات خود با جعلی اعلام کردن ویدیو و صدا‌های معتبر فرار کنند. به زبان ساده: مردمی که شکاک هستند در صحت شواهد صوتی و تصویری واقعی تردید خواهند داشت.» بازیابی ا اعتماد می‌تواند بسیار دشوار باشد.

ما واقعاً باید فکر کنیم که چگونه درجاتی از اعتماد در مورد تمام محتوای دیجیتالی که روزانه با آن در تعامل هستیم می‌تواند دوباره احیا شود.

با توجه به تحولات اخیر، احتمالاً وضعیت قبل از اینکه بهتر شود، بدتر می‌شود. ابزار‌های هوش مصنوعی هر ساله تولید دیپ فیک را آسان‌تر می‌کنند. این روز‌ها، یک هوش مصنوعی می‌تواند با میزان کمی از داده‌های سمعی و بصری آموزش داده شود تا به طور قانع‌کننده‌ای به نظر برسد که کسی در حال بیان اظهاراتی است که هرگز نگفته و اینک همه می‌توانند این کار را انجام دهند.

حتی امسال، کلیپ‌های جعلی عمیقی از رئیس جمهور جو بایدن دیده شد که یک پیش‌نویس قانون ملی می‌نوشت و پادکستر مشهور -جو روگان- مشاهده شد که محصولات تقویت‌کننده مردانه را در TikTok تبلیغ می‌کرد.

این فقط وکلاً نیستند که در تایید واقعیت یا دروغ درمانده‌اند. حتی احزاب سیاسی هم در حال استفاده از این جو شک و تردید هستند.

ماه گذشته، کمیته ملی جمهوری خواه آگهی‌ای منتشر کرد تا با آن به کمپین انتخاب مجدد جو بایدن حمله کند. در این آگهی تصاویری تولید شده توسط هوش مصنوعی دیده می‌شد. مثلا تایوان در حال تهاجم به چین دیده می‌شد و مرز‌های آمریکا که مملو از پناهجویان شده. اشاره‌ای به پیامدهای انتخاب مجدد بایدن.

اینها با آرمان اولیه هوش مصنوعی که به تصویر کشیدن رویاهای ما بود، تفاوت دارند.

در میان آن همه بی‌ثباتی، باید انتظار داشته باشیم که وکلای بیشتری در آینده نزدیک از «دفاع عمیق» یعنی استناد به جعلی بودن ویدئوها استفاده کنند. در حالی که دادگاه‌ها تاکنون ترتیب اثری به این دفاع نداده‌اند، هیچ تضمینی وجود ندارد که یک قاضی در نهایت تحت تأثیر یک استدلال قانع‌کننده قرار نگیرد.

منبع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
[wpcode id="260079"]