هوش مصنوعی میدجرنی Midjourney تصور می‌کند که اساتید رشته‌های مختلف باید چه ظاهری داشته باشند؟ گالری عکس

کودک و نوجوان که بودم برای خودم یک پا Midjourney  بودم. کتاب‌ها را که می‌خواندم از روی توصیف چهره‌ها و مکان‌ها و اشیا تصور می‌کردم که مثلا کاپیتان نمو یا ربات آر دانیل الیواو باید چطوری باشد، فضاها را تصور می‌کردم و آب و رنگ به آنها در ذهن می‌دادم. نکته بد این بود که سال‌ها بعد فیلمی می‌دیدی و مثلا میشل استروگف یا نادیای ذهن تو با آن سریال (که در دهه شصت پخشش نیمه‌کاره رها شد!) هماهنگ نبود!

اما حالا من شخصا ترسم این است که تخیل را بسپاریم به هوش مصنوعی. به راستی کودکان کنونی مثل ما شخصیت‌سازی ذهنی می‌کنند و چهره «رندر» می‌کنند؟ آیا چیزی از دست می‌دهد؟ یا نگرانی من بیهوده است,

اما به تازگی ویدیوی جذابی در Reddit با عنوان «Midjourney فکر می‌کند اساتید بر اساس دپارتمانشان چه شکلی هستند» پست شده. برخی این تخیل میدجرنی را ربط داده‌اند به سوگیری‌های ذاتی تولیدکنندگان تصویر هوش مصنوعی. اما برخی مثل من فقط تفریحی به آن نگاه می‌کنیم.

در ضمن با خودم تصور می‌کنم که شاید گام بعدی هوش‌های مصنوعی باشد که بر اساس مجموعه مقاله‌های یک نویسنده چهره‌ای برایش حدس بزنند. راستش وقتی کودک بودم همین کار را هم می‌کردم. چون بسیاری از کتاب‌ها حتی عکس درست و درمانی از نویسنده نداشتند و من مثلا ویکتور هوگو را جور دیگری می‌دیدم. این طوری نبود که مثل الن جستجو کنید و چند عکس یا طراحی وب پیدا کنید.

برگردیم به موضوع:

این ویدیوی 40 ثانیه‌ای دارای تصاویر تحیلی اساتید است و در هر مورد از میدجرنی خواسته‌اند تصور کند که یک استاد نمادین رشته ایکس چه شکلی باید باشد!

این موضوع بحث جالبی را در زیر پست به راه انداخت و یکی از کاربران ردیت گفت: “این در واقع از تجربه من کاملاً دقیقت‌ر است” اما دیگری پاسخ داد اینکه میدجرنی اساتید را به صورت “مرد و سفیدپوست پیر و جا افتاده تصور کند چیزی است که من در اکثر مؤسسات دانشگاهی مدرن نمی‌بینم.»

سوگیری‌ها در مولد‌های تصویر هوش مصنوعی

تولیدکننده‌های تصویر هوش مصنوعی می‌توانند در مدل‌های خود دارای سوگیری باشند، زیرا از داده‌هایی که برای یادگیری آنها استفاده شده و با آن تغذیه شده‌اند، خودشان اغلب حاوی سوگیری‌های موجود در دنیای واقعی است. این سوگیری‌ها بسته به مدل خاص و داده‌های مورد استفاده برای آموزش می‌توانند به روش‌های مختلفی ظاهر شوند.

به عنوان مثال، اگر یک تولید‌کننده تصویر هوش مصنوعی بر روی مجموعه داده‌ای از تصاویر آموزش دیده باشد که به طور نامتناسبی گروه‌های خاصی از افراد را نشان می‌دهد، مانند افراد با پوست روشن‌تر، تصاویر تولید شده نیز ممکن است این سوگیری را با تولید تصاویر کمتر یا کیفیت پایین از افراد تیره‌تر نشان دهند.

علاوه بر این، حتی اگر خود داده‌های آموزشی بی‌طرفانه باشند، مدل همچنان ممکن است بر اساس نحوه برچسب‌گذاری یا حاشیه‌نویسی داده‌ها، سوگیری‌ها را یاد بگیرد. به عنوان مثال، اگر مجموعه داده، اشیا یا افراد خاصی را به گونه‌ای برچسب‌گذاری کند که کلیشه‌ها یا فرضیات را تقویت کند، تولیدکننده تصویر هوش مصنوعی ممکن است یاد بگیرد که این سوگیری‌ها را در خروجی خود اعمال کند.

محققان می‌نویسند: «از آنجایی که سیستم‌های متن به تصویر با قابلیت یادگیری ماشینی رو به افزایش هستند و پذیرش رو به رشد به عنوان خدمات تجاری را مشاهده می‌کنند، مشخص کردن سوگیری‌های اجتماعی که از خود نشان می‌دهند اولین گام ضروری برای کاهش خطر نتایج تبعیض‌آمیز است.»

محققان و توسعه‌دهندگان باید داده‌های آموزشی خود را به دقت تنظیم کنند و از تکنیک‌هایی استفاده کنند تا اطمینان حاصل شود که مدل‌های حاصل تا حد ممکن عاری از سوگیری هستند.

اما سوای این نگرانی‌ها بیایید، عکس استادها را مرور کنیم!

4 دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
[wpcode id="260079"]