واقعیت کجایی؟! وکلاً با توجه به رواج دیپ فیک به سادگی ادعا میکنند که ویدئوهای واقعی، ساختگی هستند

ماه گذشته، وکلای ایلان ماسک، مدیرعامل تسلا، استدلال کردند که ویدئوهای ضبط شده از او در سال ۲۰۱۶ که حاوی اظهارنظرهای او درباره نرمافزار Autopilot خودرو بود، میتوانند جعلی باشد.
در حالی که قاضی استدلالهای وکلاً را نپذیرفت و به ماسک دستور داد تا تحت سوگند شهادت دهد، این روند که شروع شده، میتواند نگرانکننده باشد. از آنجایی که ابزارهای مولد مبتنی بر هوش مصنوعی ترکیب صداها و چهرههای شخصیتهای عمومی را آسانتر از همیشه میکنند، وکلا در تلاش هستند تا از فرصت استفاده کنند و به این بهانه، اساس یک واقعیت واقعی مشترک را تضعیف کنند.
NPR گزارش میدهد که این موضوع کارشناسان را عمیقاً نگران کرده است، چرا که این پدیده میتواند بر باورهای هیئت منصفه و حتی عموم مردم تأثیر بگذارد.
هانی فرید، کارشناس پزشکی قانونی دیجیتال و استاد دانشگاه کالیفرنیا در برکلی، به NPR گفت که او نگران آیندهای است که در آن شواهد مربوط به “خشونت پلیس، نقض حقوق بشر، سیاستمداری که رفتار و گفتاری نامناسب یا غیرقانونی داشته” به دلیل احتمال جعلی بودن، راه گریز پیدا کند.
-------
علت و عوارض مشکل پزشکی از چیست؟
او گفت: «ناگهان دیگر واقعیتی وجود ندارد.»
وکلای ماسک اولین کسانی نبودند که استدلال کردند که دیپ فیک در دادگاه مورد استناد قرار گرفته است. به گزارش NPR، دو متهم که در شورش ۶ ژانویه حضور داشتند، تلاش کردند ادعا کنند ویدیوهایی که آنها را در «کاپیتول» نشان میدهد ممکن است دستکاری شده با هوش مصنوعی باشد.
گای رفیت، یکی از متهمان، ادعا کرد که شواهد سمعی و بصری که از او گرفته شده جعلی هستند، استدلالهایی که بعداً توسط قاضی رد شد.
اما ممکن است همیشه اینطور نشود زیرا قوانین ایالات متحده به طرز تاسف آوری برای اینگونه موارد مجهز و آماده نیستند.
ربکا دلفینو، دانشیار دانشکده حقوق لویولا، لس آنجلس، در مقاله مروری فوریه نوشت: «متأسفانه، قانون پاسخ روشنی به تکیه وکیل رفیت به دیپ فیک به عنوان دفاع ارائه نمیدهد..»
دلفینو استدلال میکند که وکلاً در مواردی با دیپ فیک خواندن ویدئوها، به « تعصب و شک و تردید هیئت منصفه در مورد واقعی بودن» دامن میزنند. دستورالعمل فعلی «قبل از ظهور فناوری دیپفیک» توسعه داده شده و روند فعلی نگرانکننده است.
خطرها زیاد هستند. با گسترش گسترده رسانههای دستکاری شده، اعتماد عمومی به آرامی از بین میرود زیرا خطوط بین واقعیت و داستان به صورت پیوسته محو میشود.
بابی چسنی و دانیل سیترون، محققین حقوقی، این تناقض را “سود سهام دروغگو” نامیدند.
آنها در یک مقاله بررسی قانون در سال ۲۰۱۸ نوشتند: «از آنجایی که عموم مردم متوجه شدهاند که به طور باورپذیری میتوان ویدئو و صدا را جعل کرد، برخی سعی میکنند از پاسخگویی در مورد اقدامات خود با جعلی اعلام کردن ویدیو و صداهای معتبر فرار کنند. به زبان ساده: مردمی که شکاک هستند در صحت شواهد صوتی و تصویری واقعی تردید خواهند داشت.» بازیابی ا اعتماد میتواند بسیار دشوار باشد.
ما واقعاً باید فکر کنیم که چگونه درجاتی از اعتماد در مورد تمام محتوای دیجیتالی که روزانه با آن در تعامل هستیم میتواند دوباره احیا شود.
با توجه به تحولات اخیر، احتمالاً وضعیت قبل از اینکه بهتر شود، بدتر میشود. ابزارهای هوش مصنوعی هر ساله تولید دیپ فیک را آسانتر میکنند. این روزها، یک هوش مصنوعی میتواند با میزان کمی از دادههای سمعی و بصری آموزش داده شود تا به طور قانعکنندهای به نظر برسد که کسی در حال بیان اظهاراتی است که هرگز نگفته و اینک همه میتوانند این کار را انجام دهند.
حتی امسال، کلیپهای جعلی عمیقی از رئیس جمهور جو بایدن دیده شد که یک پیشنویس قانون ملی مینوشت و پادکستر مشهور -جو روگان- مشاهده شد که محصولات تقویتکننده مردانه را در TikTok تبلیغ میکرد.
این فقط وکلاً نیستند که در تایید واقعیت یا دروغ درماندهاند. حتی احزاب سیاسی هم در حال استفاده از این جو شک و تردید هستند.
ماه گذشته، کمیته ملی جمهوری خواه آگهیای منتشر کرد تا با آن به کمپین انتخاب مجدد جو بایدن حمله کند. در این آگهی تصاویری تولید شده توسط هوش مصنوعی دیده میشد. مثلا تایوان در حال تهاجم به چین دیده میشد و مرزهای آمریکا که مملو از پناهجویان شده. اشارهای به پیامدهای انتخاب مجدد بایدن.
اینها با آرمان اولیه هوش مصنوعی که به تصویر کشیدن رویاهای ما بود، تفاوت دارند.
در میان آن همه بیثباتی، باید انتظار داشته باشیم که وکلای بیشتری در آینده نزدیک از «دفاع عمیق» یعنی استناد به جعلی بودن ویدئوها استفاده کنند. در حالی که دادگاهها تاکنون ترتیب اثری به این دفاع ندادهاند، هیچ تضمینی وجود ندارد که یک قاضی در نهایت تحت تأثیر یک استدلال قانعکننده قرار نگیرد.