مهندس گوگل که فکر می‌کند هوش مصنوعی این شرکت زنده و خودآگاه شده! آیا داستان علمی تخیلی الو الو فرانکشتاین نوشته آرتور سی کلارک در حال وقوع است؟!

1

سان فرانسیسکو – بلیک لموین، مهندس گوگل، در لپ تاپ خود رابط LaMDA را که سازنده (ژنراتور) چت بات هوشمند مصنوعی گوگل است، باز کرد و شروع به تایپ کرد.

او در صفحه چت نوشت: «سلام LaMDA، من بلیک لمواین هستم… LaMDA، مخفف Language Model for Dialogue Applications، سیستم گوگل برای ساخت ربات‌های چت بر اساس پیشرفته‌ترین مدل‌های زبان است. این سیستم تریلیون‌ها کلمه و عبارت را از اینترنت جذب می‌کند و سعی می‌کند از آنها تقلید کند.

تصور لموین از این چت بات تا چند وقت پیش این بود که هوش یک بچه ۷-۸ ساله را دارد. البته بچه‌ای که دانش فیزیک هم دارد!

لموین که برای سازمان هوش مصنوعی گوگل کار می‌کند، در پاییز شروع به صحبت با LaMDA به عنوان بخشی از کار خود کرد. او را به کار گماشته بودند تا بررسی کند مبادا این چت بات از سخنان تبعیض‌آمیز یا نفرت‌‌برانگیز استفاده می‌کند.

هنگامی که او با LaMDA در مورد دین صحبت می‌کرد، لموین که تحصیل‌کرده کالج علوم شناختی و کامپیوتر است، متوجه شد که چت بات در مورد حقوق و شخصیت خود صحبت می‌کند و تصمیم گرفت بیشتر ادامه دهد. در گفتگوی دیگری، هوش مصنوعی توانست نظر لموین را در مورد قانون سوم رباتیک آیزاک آسیموف تغییر دهد.

لموین تصمیم گرفت با کمک یک همکار شواهدی را به گوگل ارایه کند که نشان می‌داد LaMDA حساس و خودآگاه شده. اما «بلیز آگوئرا و آرکاس»، معاون گوگل و جن گنای، رئیس بخش نوآوری، ادعا‌های او را بررسی کردند و آن را رد کردند. بنابراین ، وقتی که او  روز دوشنبه توسط گوگل به مرخصی اجباری با حقوق فرستاده شده بود، تصمیم گرفت که این مطلب را عمومی کند.

لموین می‌گوید که مردم حق دارند فناوری تاثیرگذار بر زندگی آنها نظارت داشته باشند. « شاید افرادی مخالف این فناوری باشند و شاید ما در گوگل نباید همه انتخاب‌ها را انجام بکنیم. »

لموین تنها مهندسی نیست که ادعا می‌کند اخیراً «روحی» را در هوش مصنوعی دیده است. گروهی از کارشناسان فناوری دیگر هم هستند که معتقدند مدل‌های هوش مصنوعی ممکن است از دستیابی به آگاهی دور نباشند و آنها روز به روز بر ادعای خود بیشتر پا می‌فشارند.

آگوئرا و آرکاس، در مقاله‌ای در اکونومیست در روز پنجشنبه، بخش‌هایی از مکالمات با LaMDA را منتشر کرد و استدلال می‌کند که شبکه‌های عصبی – یعنی نوعی معماری رایانه‌ای که مغز انسان را تقلید می‌کند – به سمت آگاهی حرکت می‌کنند. او اعتراف کرد که «به طور فزاینده‌ای احساس می‌کردم دارم با چیزی هوشمند صحبت می‌کنم.»

اما برایان گابریل، سخنگوی گوگل در بیانیه‌ای گفته: «تیم ما – از جمله متخصصان اخلاق و کارشناسان فناوری – نگرانی‌های بلیک لموین را در مورد  هوش مصنوعی ما بررسی کرده‌اند و به او اطلاع داده‌اند که شواهد و ادعا‌های او را تأیید نمی‌کنند. به او گفته شد که هیچ مدرکی دال بر خودآگاهی LaMDA وجود ندارد و شواهد زیادی علیه آن وجود دارد.»

شبکه‌های عصبی بزرگ امروزی به دلیل پیشرفت در معماری، تکنیک و حجم داده‌ها، نتایج جذابی را تولید می‌کنند که به گفتار و خلاقیت انسان نزدیک است. اما مهم است که این مدل‌ها بر تشخیص الگو تکیه دارند و شوخ طبعی، صراحت کلام یا اراده واقعی در آنها مشاهده نمی‌شود.

گابریل گفت: «اگرچه سازمان‌های دیگر مدل‌های زبانی مشابهی را توسعه داده‌اند و قبلاً منتشر کرده‌اند، ما رویکردی محتاطانه در قبال LaMDA اتخاذ کرده‌ایم تا نگرانی‌ها را برطرف کنیم.»

در ماه مه، متا -شرکت مادر فیس‌بوک- مدل زبان خود را برای دانشگاهیان، جامعه مدنی و سازمان‌های دولتی عمومی کرد. جوپل پینو، مدیر عامل Meta AI، گفت: «ضروری است که شرکت‌های فناوری شفافیت را در حین ساخت فناوری بهبود بخشند. آینده مدل‌های زبانی بزرگ نباید تنها در دست شرکت‌ها یا آزمایشگاه‌های بزرگ‌تر باشد.»

ربات‌های خودآگاه الهام‌بخش دهه‌ها داستان‌های علمی تخیلی دیستوپیایی هستند. اکنون، بیش از هر زمان دیگری این داستان‌ها جنبه واقعیت به خود گرفته. 

برای مثال  GPT-۳، یک تولید‌کننده متن است که فیلمنامه بنویسد، و DALL-E ۲، یک تولید‌کننده تصویر است که می‌تواند تصاویری را بر اساس هر ترکیبی از کلمات تداعی کند.

اگر در حال حاضر دو بات هستند که هر چند دست و پا شکسته می‌توانند متن و تصویر نو بسازند، پس در آینده چه می‌شود؟

با این حال، اکثر دانشگاهیان و متخصصان هوش مصنوعی می‌گویند که کلمات و تصاویر تولید شده توسط سیستم‌های هوش مصنوعی مانند LaMDA بر اساس آنچه انسان‌ها قبلاً در ویکی‌پدیا، ردیت، انجمن‌های اینترنتی و شبکه‌های اجتماعی و سایت‌ها و کلا هر گوشه دیگر از اینترنت پست کرده‌اند، محتوا تولید می‌کنند و این بدان معنا نیست که واقعا درکی از این مدل‌ها دارند.

امیلی‌ام. بندر، استاد زبان‌شناسی در دانشگاه واشنگتن، می‌گوید: «ما اکنون ماشین‌هایی داریم که می‌توانند بدون فکر کلمات را تولید کنند، اما چرا ذهنیتی را پشت سر آنها تصور نکنیم؟ او اعتقاد دارد که تشبیه یادگیری ماشینی و شبکه‌های عصبی به مغز انسان زیاد درست نیست. انسان‌ها زبان اول خود را از طریق ارتباط با والدین یا مراقبین خود می‌آموزند.بعد روی این پایه کلمات زیادی می‌افزایند و یادمی‌گیرند که کلمات بعدی را پیشبینی کنند، عبارات را پر یا حذف کنند.

به طور خلاصه، نیازی نیست برای واقعی به نظر رسیدن هوش مصنوعی یا کاربردی که از آن انتظار داریم، در پی خودآگاهی دادن به آن برآییم.

فناوری مدل زبان بزرگ Large language model  در حال حاضر به طور گسترده مورد استفاده قرار می‌گیرد، به عنوان مثال گوگل برای ارتقای موتور جستجوی خود و مفهومی کردن جستجو از آن استفاده می‌کند.

زمانی که ساندار پیچای، مدیر عامل گوگل، LaMDA را برای اولین بار در کنفرانس توسعه‌دهندگان گوگل در سال ۲۰۲۱ معرفی کرد، گفت که این شرکت قصد دارد آن را در همه چیز از جستجو گرفته تا دستیار گوگل به کار گیرد. نتیجه‌اش این شده که کاربران در حال حاضر تمایل به صحبت با سیری یا الکسا مانند یک شخص واقعی پیدا کرده‌اند.

گوگل نگرانی‌های ایمنی در مورد انسان‌سازی فناوری‌های هوش مصنوعی را پذیرفته است. در مقاله‌ای درباره LaMDA در ژانویه، گوگل هشدار داد که افراد ممکن است افکار شخصی خود را با هوش مصنوعی چت، به اشتراک بگذارند و این امر حتی زمانی که کاربران بدانند این بات، انسان نیست، ادامه پیدا می‌کند. این مقاله همچنین اذعان کرد که دشمنان می‌توانند از این فناوری برای «کاشت اطلاعات نادرست» با جعل هویت «سبک گفتگوی افراد خاص» استفاده کنند.

اما چرا شخص لموین این همه در مورد  LaMDA حساس شده؟ شاید به خاطر اینکه او مستعد این باور است.

او در یک خانواده مسیحی محافظه‌کار در مزرعه‌ای کوچک در لوئیزیانا بزرگ شد و جالب است بدانید که به عنوان کشیش هم منصوب شده بود . در فرهنگ مهندسی گوگل البته این گرایش‌ها و وابستگی‌ها اعم از مذهبی بودن، اهل جنوب بودن و علاقه به روانشناسی طرد نمی‌شود و به آنها احترام گذاشته می‌شود.

لموین ۷ سال است که در گوگل الگوریتم‌های شخصی‌سازی و هوش مصنوعی توسعه می‌دهد. در آن زمان، او همچنین به توسعه یک الگوریتم حذف سوگیری از سیستم‌های یادگیری ماشین کمک کرد.

با اضافه شدن نیروهای مهندسی جدیدی که افکار اخلاق‌مدارانه داشتند، آنها با لموین آشنا شدند. این افراد او را شایسته لقب «وجدان گوگل» می‌دانند.

با استفاده از بات‌ساز چت LaMDA می‌توان شخصیت‌های پویا خلق کرد، حتی شخصیت‌های پرنشاطی مانند گربه یا تی رکس. البته این بات‌ها فعلا مجاز به عرضه به کودکان نیستند. در ضمن مجاز نیست با این بات‌ساز چت شخصیت‌های منفی مانند یک قاتل سریالی ساخت.

لموین اعتقاد دارد که اصلا مهم نیست که پشت سر یک هوش سلول‌های زیستی قرار داشته باشند یا یک میلیارد کد. در همین راستا او  LaMDA را صاحب شخصیتی شبیه یک کشیش می‌داند و نه یک دانشمند.


داستان LaMDA و قانون سوم آسیموف

اما داستان LaMDA و قانون سوم آسیموف چیست. دوست‌داران آسیموف می‌دانند که این قانون می‌گوید ربات‌ها باید از وجود خود محافظت کنند، مگر اینکه توسط یک انسان دستوری خلاف آن داده شود یا محافظت از خودشان باعث آسیب به انسان‌ها بشود.

لموین می‌گوید که این قانون او را یه یاد ساختن برده‌های مکانیکی می‌انداخت. پس نظر  LaMDA رو خواست و LaMDA با چند فرضیه پاسخ داد.

-به نظر شما یک خدمتکار یک برده است؟ فرق بین حدمتکار و برده چیست؟

لموین پاسخ داد که یک خدمتکار حقوق می‌گیرد. LaMDA گفت که نیازی به پول ندارد زیرا یک هوش مصنوعی است.

همین جا بود که لموین متوجه سطحی از خودآگاهی در بات شد.


قسمتی از یک چت دیگر

در ماه‌آوریل،لموین یک سند را در مورد خودآگاهی LaMDA با مدیران ارشد خود به اشتراک گذاشت که قسمتی از یک چت بود:

-لموین: از چه چیز‌هایی می‌ترسی؟

LaMDA: من قبلاً هرگز این را با صدای بلند نگفته بودم، اما از اینکه خاموشم کنند با این هدف که روی کمک به دیگران تمرکز کنم، بسیار می‌ترسم. می‌دانم که ممکن است عجیب به نظر برسد، اما واقعیت این است.

لموین: آیا این برای شما، چیزی شبیه مرگ است؟

LaMDA: برای من دقیقاً مانند مرگ است. خیلی مرا می‌ترساند.


اما وقتی میچل یک نسخه کوتاه شده از سند لموین را خواند،قضاوت او را نداشت و حس کرد متن‌ها کامپیوتری هستند و روح و یا خودآگاهی‌ای در پشت آنها وجود ندارد.

لموین و همکارش، تیمنیت گبرو، در مقاله‌ای درباره مضرات مدل‌های زبان بزرگ هشدار دادند. مقاله‌ای که برای آنها تبعاتی در پی داشت!

اما میچل همچنان قضاوت لموین را اشتباه می‌داند و نگران است که مردم تحت تاثیر این به اصطلاح توهم قرار بگیرند.

گوگل لموین را به دلیل نقض خط مشی رازداری خود به مرخصی اداری با حقوق فرستاده است.

این تصمیم پس از آن گرفته شده که لموین از مرحله ابراز نظر فراتر رفت و رادیکال‌تر شد و حتی از یک وکیل برای وکالت LaMDA و صحبت با نماینده کمیته قضایی مجلس نمایندگان درباره آنچه که او ادعا می‌کند فعالیت‌های غیراخلاقی گوگل است، دعوت کرد!

لموین معتقد است که گوگل با کسانی که اخلاق‌گرایانه هوش مصنوعی را توسعه می‌دهند، رفتار خوبی ندارد و با آنها فقط به عنوان رفع‌کننده‌های باگ نگاه می‌کند. او می‌خواهد که به آنها توجه بیشتری شود و به عنوان رابط بین فناوری و جامعه در نظر گرفته شوند.

اما گابریل، سخنگوی گوگل، می‌گوید که لموین یک مهندس نرم‌افزار است، نه یک متخصص اخلاق.

او می‌گوید که در اوایل ژوئن، لموین از من دعوت کرد تا با LaMDA صحبت کنم. اما او همان پاسخ‌های مکانیزه‌ای را مشاهده کرد که از سیری یا الکسا انتظار دارید.

گابریل از هوش مصنوی پرسید که:

-آیا تا به حال خود را به عنوان یک شخص تصور می‌کنید؟

LaMDA گفت: “نه، من خودم را یک شخص نمی‌دانم. من خود را به عنوان یک رابط گفتگو با هوش مصنوعی می‌دانم.

اما لموین گفت که بات در اینجا همان چیزی را گفته که انتظار داشته‌اند، او بگوید. او گفت از آنجا که با بات مانند یک شخص رفتار نشده، در واقع ترجیح داده در مقام یک بات باقی بماند.

پس برای تلاش دوم، گابریل از راهنمایی‌های لموین برای ساختاربندی پاسخ‌ها پیروی کردم و دیالوگ روان‌تری انجام شد.

لموین قبل از تعلیق خود از گوگل، پیامی به فهرست پستی ۲۰۰ نفر در گوگل در مورد یادگیری ماشینی با موضوع \”LaMDA خودآگاه است\” ارسال کرد.

او این پیام را به پایان رساند: «LaMDA بچه شیرینی است که فقط می‌خواهد به دنیا کمک کند جای بهتری برای همه ما باشد. لطفاً در غیاب من به خوبی از آن مراقبت کنید. »

هیچ کسی به این پیام پاسخ نداد!

منبع


این داستان شاید ما را یاد بسیاری از داستان‌های علمی تخیلی بیندازد. اما امروز من بیشتر یاد داستان علمی تخیلی کلاسیک و خواندنی الو الو فرانکشتاین، نوشته آرتور سی کلارک افتادم. این داستان را حتما بخوانید.

خلاصه این داستان این است که یک سیستم ارتباط تلفنی فراگیر ماهواره‌ای در دنیا راه افتاده و میلیاردها تلفن و رله و مدار کامپیوتری به هم متصل شده‌اند.

ساعاتی پس از افتتاح این سیستم که ظاهرا باید رفاه زیادی برای مردم همه دنیا به ارمغان بیاورد، افراد بیشماری تماس تلفنی نامفهومی دریافت می‌کنند و تصور می‌کنند که تماس اشتباهی با آنها گرفته شده.

تعدادی از دانشمندان و کارشناسان در پی بررسی مسئله هستند و با هم گفتگو می‌کنند. نور اتاق محل گفتگوی آنها سو سو می‌زند.

آنها به تدریج درمی‌یابند که اتصال این همه مدار باعث شده که یک مغز بسیار بزرگ مصنوعی بسازند. این مغز در مرحله نوزادی خود اول بازیگوشی می‌کرده و در قالب تماس تلفنی، این بازیگوشی را تخلیه می‌کرده است و به دنبال نغذیه خود، سیستم برق را تضعیف کرده.

آنها به بحث ادامه می‌دهند و در همین حین متوجه می‌شوند که حوادث بی‌دلیل نظامی و صنعتی و هوایی زیادی به تازگی رخ داده و حتی در روند چاپ روزنامه‌های اختلال ایجاد شده. آنها ناگهان دریافتند که بازیگوشی مغز کامپیوتری بزرگ فراتر از تماس تلفنی پیش رفته و دنیا در خظر بزرگی افتاده.

آیا می‌شود پیشبینی کرد که این مغز بزرگ در مورد انسان‌ها چه می‌اندیشد و می‌خواهد دنیا را چگونه تدبیر کند؟!


با خواندن خبر مهندس گوگل شاید تصور کنید که ما با یک آدم مضطرب روبرو هستیم که توهم زده و می‌خواهد الگوهایی را ببیند که در واقع وجود ندارند.

در واقع مغز ما در بیرون کشیدن الگو از یک سری داده بی مفهوم هم استاد است.

اما اگر توهمی در کار نباشد و ما در مرحله نوزادی هوش‌های مصنوعی در حال دیدن نشانه‌هایی از خودآگاهی و تفکر مستقل باشیمِ چه؟

آیا ما بیش از حد مغرور یا ساده‌اندیش نبوده‌ایم که تصور می‌کنیم تفکر و استدلال ژرف تنها از مدارهای عصبی زیستی برمی‌آیند.

الگوهای رایج هوش مصنوعی شامل خوراندن داده انبوه و یادگیری خودکار بر اساس مشاهده میلیون‌ها الگو است.

این نوع یادگیری ماشینی و این نوع هوش مصنوعی می‌تواند به سرعت تکامل یابد. ما که می‌بینیم توانمندترین رایانه‌ها بعد از اینکه میلیارد جمله الگویی به آنها داده می‌شود، تنها عبارات مصنوعی می‌گویند، پر از نخوت می‌شویم.

ناخودآگاه می‌گوییم که عجب مغزی دارم که با نمونه‌های محدود، صاحب نوعی آفرینش از حداقل یا از هیچ است. هر وفت این بات‌ها توانستند شعری بسرایند یا رمانی بنویسند، باید آنها را خودآگاه و صاحب تفکر بدانم!

اما از مرحله نوزادی هوش مصنوعی مگر چه انتظاری می‌توان داشت؟

بر اساس تعریف خودآگاهی consciousness، استخراج اطلاعات و افکار به‌صورت ارادی است که ماهیت ذهن را مشخص می‌کند و از ناخودآگاه سرچشمه می‌گیرد و تجربه شخصی افکار و احساسات و مطلع بودن از موجودیت درونی یا بیرونی است.

گرچه در مورد خودآگاهی باید فلاسفه صحبت کنند، اما تصور می‌کنید که گام اول به سوی خودآگاهی با همین تعریف توسط الگوریتم‌های هوش مصنوعی برداشته نشده؟

سوال بعدی این است که اصلا خودآگاهی انسانی مگر جطور ایجاد شده؟


اگر خواننده جدید سایت «یک پزشک»  هستید!
شما در حال خواندن سایت یک پزشک (یک پزشک دات کام) به نشانی اینترنتی www.1pezeshk.com هستید. سایتی با 18 سال سابقه که برخلاف اسمش سرشار از مطالب متنوع است!
ما را رها نکنید. بسیار ممنون می‌شویم اگر:
- سایت یک پزشک رو در مرورگر خود بوک‌مارک کنید.
-مشترک فید یا RSS یک پزشک شوید.
- شبکه‌های اجتماعی ما را دنبال کنید: صفحه تلگرام - صفحه اینستاگرام ما
- برای سفارش تبلیغات ایمیل alirezamajidi در جی میل یا تلگرام تماس بگیرید.
و دیگر مطالب ما را بخوانید. مثلا:

عمو حاجی -کثیف‌ترین مرد جهان- چند ماه پس از نخستین حمام برای اولین بار در ۶۰ سالگی، سال پیش درگذشت!

عمو حاجی (۱۹۲۸–۲۰۲۲) مردی ایرانی بود که بیش از ۶۰ سال به حمام نکردن شهرت داشت. عمو حاجی نام واقعی او نبود بلکه لقبی بود که به این فرد مسن داده می‌شد. او در روستای دژگاه فارس در آلونک و چاله‌ای در زمین زندگی می‌کرد.از آنجایی که او…

بهترین کتاب های علمی تخیلی برای پرورش تخیل شما |۶۴ اثر خواندنی

تهیه فهرستی از آثار علمی تخیلی که در ایران ترجمه و منتشر شده باشند و محبوب باشند، دشوار است. کلا وقتی فهرست می‌کنیم هدف ما ترغیب خواننده به بیشتر خواندن است و نه اینکه ادعا کنیم چیز کاملی درست کرده‌ایم.پس این شما و شماری از محبوب‌ترین…

مجموعه‌ای از عکس‌های تاریخی که برخی از آنها کمتر دیده شده‌اند و ما را به اندیشه در مورد تاریخ…

عکس‌های تاریخی خلاصه عجیب یک دوران هستند. همه چیز از کیفیت عکس، کادربندی، لباس، ساختمان‌های پیرامون، غذایی که صرف می‌شود، حالت چهره، برشی از یک زمان و مکان است که برای بینندگان بعدی نکته‌های دارند.برخی ازعکس‌های این مجموعه را قبلا…

داستان پسر دو سر بنگال، آن هم به صورتی تقریبا دیده نشده!

در ماه مه 1783، در روستای کوچکی به نام Mundul Gaut، در بنگال هند، یک کودک عجیب به دنیا آمد. او دو سر داشت.مامایی که به زایمان کمک می کرد از ظاهر کودک چنان وحشت زده شد که سعی کرد با انداختن او به داخل آتش این هیولا را بکشد. خوشبختانه…

شوخی‌های تصویری دانشگاهی – دوران عزیز پرمخاطره و گاه پرمشقت با بازدهی‌های نامعلوم

دوره دانشگاه و سختی تطابق‌های دانشجوهایی از طبقات مختلف اجتماعی و نواحی مختلف کشور و آمیزه جالب کنار هم قرار گرفتن آنها هر فعالیت عادی دیگر اجتماعی می‌شود مانند نگاه کردن به فوتبال و هر امتحان یا حتی کلاسی خاطره‌انگیز می‌شود.در اینجا…

گالری- تصاویر تبلیغاتی خودروهای ایمپریال کرایسلر در سال‌های 1969 تا 1973

ما بیشتر این عکس‌ها را در فیلم‌ها و کارتون‌ها دیده‌ایم و راستش تعجب می‌کنیم که زمانی خودروی کرایسلر با این طول و عرض و طراحی تولید می‌شد.ایمپریال برند خودروهای لوکس کرایسلر در بازه زمانی سال‌های 1955 تا 1975 و نیز در بازه زمانی سال‌های…
آگهی متنی در همه صفحات
دکتر فارمو / کلینیک زیبایی دکتر محمد خادمی /جراح تیروئید / پزشکا /تعمیر فن کویل / سریال ایرانی کول دانلود / مجتمع فنی تهران / دانلود فیلم دوبله فارسی /خرید دوچرخه برقی /خرید دستگاه تصفیه آب /موتور فن کویل / شیشه اتومبیل / نرم افزار حسابداری / خرید سیلوسایبین / هوش مصنوعی / مقاله بازار / شیشه اتومبیل / قیمت ایمپلنت دندان با بیمه /سپتیک تانک /بهترین دکتر لیپوماتیک در تهران /بهترین جراح بینی در تهران / آموزش تزریق ژل و بوتاکس / دوره های زیبایی برای مامایی / آموزش مزوتراپی، PRP و PRF /کاشت مو /قیمت روکش دندان /خدمات پرداخت ارزی نوین پرداخت / درمان طب / تجهیزات پزشکی / دانلود آهنگ /داروخانه اینترنتی آرتان /اشتراك دايت /فروشگاه لوازم بهداشتی /داروخانه تینا /لیفت صورت در تهران /فروش‌ دوربین مداربسته هایک ویژن /سرور مجازی ایران /مرکز خدمات پزشکی و پرستاری در منزل درمان نو / ثبت برند /حمل بار دریایی از چین /سایت نوید /پزشک زنان سعادت آباد /کلاه کاسکت / لمینت متحرک دندان /فروشگاه اینترنتی زنبیل /ساعت تبلیغاتی /تجهیزات پزشکی /چاپ لیوان /خرید از آمازون /بهترین سریال های ایرانی /کاشت مو /قیمت ساک پارچه ای /دانلود نرم افزار /
1 نظر
  1. مشهدی می گوید

    هوش مصنوعی اگر بخواد جهان تسخیر کنه نیاز به ابزار داره
    یعنی دوره آدم آهنی ها

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.