پیشبینی رخدادهای فردا با تحلیل نرمافزاری اخبار دیروز و امروز
«در جهان هیچ چیز تازهای وجود ندارد، مگر تاریخی که شما چیزی دربارهاش نمیدانید.»
هری ترومن
«ما از تاریخ آموختهایم که ما از تاریخ نمیآموزیم.»
هگل
«تاریخ خود را تکرار نمیکند، بلکه نظمهایی دارد.»
مارک تواین
اگر بخواهم جملات خردمندانهای که بزرگان در مورد اهمیت تاریخ و عبرت از تاریخ ذکر کردهاند، باید چند پست در وبلاگ بنویسم. در این یکی دو سال، ما به صورت مکرر، اخبار بسیار جالبی در مورد دانش تحلیل اطلاعات آنلاین برای پیشبینی رخدادهای آینده خواندهایم. این مطلب، یکی از موضوعات مورد علاقه من است. برای نمونه شما میتوانید این 3 پست را ببینید:
پژوهشگران MIT مطالب داغ آینده توییتر را پیشبینی میکنند
چرخههای تاریخی جوامع: کلیودینامیک، تحلیل علمی تکرار تاریخ
چگونه اوباما به کمک تحلیلگران اطلاعات، برنده انتخابات آمریکا شد
اما به تازگی دو خبر جدید در این مورد خواندهام که بد ندیدم، در این پست با شما به اشتراک بگذارم:
پژوهشگران نرمافزاری نوشتهاند که با کمک آن با استفاده از اخباری که در عرض دو دهه اخیر در روزنامه نیویورک تایمز و منابع آنلاین درج شده، میتوان رویدادهایی مانند همهگیری بیماریها را پیشبینی کرد.
محققانی از مایکروسافت و یک مؤسسه تحقیقاتی در حیفا درگیر این پژوهش را انجام دادهاند. سیستم ابداعی آنها کارایی چشمگیری بین 70 تا 90 درصد در پشبینی بیماریها، خشونتها و موارد مرگ و میر دارد.
برای آزمایش میزان صحت این نرمافزار، پژوهشگران دو آزمایش جالب انجام دادند. وقتی آنها به سیستم اطلاع دادند که در سالهای 2006 و 2007 به ترتیب در آنگولا خشکسالی و توفان اتفاق افتاده است، در هر دو مورد سیستم پیشبینی کرد که این دو رویداد، احتمالا همهگیری وبا را در پی خواهند داشت، این پیشبینی کاملا درست بود.
این نرمافزار میتواند به دولت و نهادها در برنامهریزی برنامههایشان کمک کند.
داده خام این برنامه 22 سال آرشیو روزنامه نیویورک تایمز از سال 1986 تا 2007 و همچنین اینترنت است، این اطلاعات به نرمافزار کمک میکنند که عواملی را که باعث ایجاد رویدادهای بزرگ میشوند را شناسایی کند.
ذکر 3 منبع اطلاعاتی عمده این نرمافزار میتواند برای شما جالب باشد:
– یکی از این منابع DBpedia است، در اینجا با استفاده از کار گروهی یا اصطلاحا crowdsourcing اطلاعات ویکیپدیا به شکل سازمانیافته در میآیند. مثلا میشود وقتی به کمک آن وقتی شما در حال خواندن خبری در مورد یک حادثه در یک شهر یا کشور هستید، میتوانید به سرعت دریابید که وضعیت اقتصادی مردم آن ناحیه یا وضعیت سیاسی آنجا چگونه است.
– منبع دیگر WordNet بود که به نرمافزار کمک میکند، معنای لغات را درک کند.
– OpenCyc هم پایگاه داده دانش عمومی است.
با استفاده از همه اینها، نرمافزار قادر میشود که از لابلای اخبار، یک سری قوانین و قاعدههای کلی را استخراج کند و بفهمد که چه چیزهایی زمینهسازی حوادث مهم خواهند شد.
البته دو محقق اصلی این برنامه یعنی اریک هورویتز و کیرا رادینسکی، اولین کسانی نیستند که به این فکر افتادهاند که با استفاده از منابع آنلاین، آینده را پیشبینی کنند، اما تفاوت آنها با بقیه استفاده از منابع آنلاین بیشتری است. آنها از 90 منبع آنلاین استفاده میکنند.
جالب است که برنامههای پیشبینی کننده آینده، مشتریهایی هم پیدا کردهاند. مثلا یک برنامه مشابه Recorded Future است، مشتریانش سازمان های اطلاعاتی دولتهای مختلف هستند.
در دهههای اخیر، شاهد تغییرات زیادی در دنیا بودهایم، اما چیزی که تغییر نکرده است، ذات و ماهیت انسان و جنبههای عمده محیط پیرامون او بوده است. بنابراین منطقی است که بشود الگویی از اطلاعات قدیمی استخراج کرد تا بتوان آینده را پیشبینی کرد.
خبر دوم در مورد توجه پنتاگون به تحیل اطلاعات توییتر و وبلاگهاست.
وزارت دفاع آمریکا برنامهای به نام Data to Decisions دارد. در این برنامه طی 3 تا 10 سال، یک سیستم کدباز برای متحد کردن ابزارهای گردآوری، مدیریت و تحلیل اطلاعات برپا خواهد شد.
پنتاگون سالانه پانصدهزار دلار خرج این برنامه میکند تا بتواند الگوریتمهایی آماده کند که که بتوانند با پایش توییتر، وبلاگها و اخبار، الگوها و رابطههایی کشف کند که منجر به پیشبینی آینده شود.
خیلی جالب است که با دادن اطلاعات کشاورزی، آب و هوایی، عوارض زمین، جمعیت شناسی و اقتصادی به یک سیستم بشود، آینده یک ملت را پیشبینی کرد.
پنتاگون حتی میخواهد با این سیستم باورها و ارزشهایی که به دشمنانش انگیزه نبرد میدهند و همچنین میزان حمایت روانی از اشخاص و موضوعات را تحلیل کند.
سیستم پنتاگون در تلاش است تا به کامپیوترها امکان فهم بهتری از زبان انسانها بدهد.
برای اینکه «طبق معمول»، سوء تفاهم ایجاد نشود باید تأکید کنم که در برنامههایی از این قبیل توییتر، وبلاگها و اطلاعات عمومی که بیشتر آنها در دسترسی هر شهروند عادی هم است، ابزار اصلی تحلیلگران، دولتها و سازمانهای اطلاعاتی نیستند. اینها همه اطلاعات خام هستند. این دانش و خردمندی محققان تحلیلگر است که از این اطلاعات خام، مانند یک منبع مواد معدنی، ابزارهایی توانمند برای سیاستگذاری و تصمیمگیری میسازد.
بنابراین هر کشور، دولت، سازمان و مؤسسه تحقیقاتی دیگری هم میتواند، برنامهای مشابه را راهاندازی کند. شاید بعضی از این برنامهها هیچگاه علنی نشده باشند، بعضیهاشان هم مثل «ترند»های توییتر از فرط روتین بودن، خیلی پیش و پا افتاده انگاشته میشوند.
هیچ بعید نیست که همین فن تحلیل تاریخ و اطلاعات آنلاین، آنقدر به کمال برسد که از آن بشود برای ساختن نظمهای نوین و سیاستهای کلان بینالمللی،استفاده عملی برد. به گمانم همین حالا هم خیلیها از تحلیل اطلاعات شبکههای اجتماعی برای برآورد میزان تأثیرگذاری سیاستهای خود و یا ارزیابی میزان محبوبیت شخصیتها یا برنامهها استفاده میکنند.
میگویند که داستانهای علمی-تخیلی خیلی زود، جامعه واقعیت میپوشند. زمانی که سری بنیاد آسیموف را میخواندم، تصور نمیکردم خیلی زود «هری سلدون»هایی در دنیا پیدا شوند.
اما این «تحلیلگران تاریخ» و این «روانتاریخدان»ها خیلی زودتر از چیزی که فکر میکردیم، سر و کلهشان پیدا شده است. شاید در حال حاضر آنها نتوانند با دقت زیادی ظهور و سقوط امپراتوریها را پیشبینی کنند، اما اصلا نباید تأثیرگذاریشان را دستکم گرفت.
آینده نشان خواهد داد!
so gooood
سلام
وای دکتر!!! چقد جالب!!!
یکی دو روزه دارم به این موضوع فکر می کنم!!!!
——-
این لینک هم لطفا اصلاح کنید
http://1pezeshk.com/archives/2012/08/cliodynamics.htm
منظورم لینک مربوط به پست “چرخههای تاریخی جوامع: کلیودینامیک، تحلیل علمی تکرار تاریخ” در اوایل این پست هست!
نوشته جالبی بود. آدمو به فکر میندازه
هوش مصنوعی چه کارا که نمیکنه !
لینک صحیح:
http://1pezeshk.com/archives/2012/08/cliodynamics.html
عالی بود.
زبان برنامه نویسی پرل ( که البته بسیار قدیمیه (دهه هفتاد)) و قالب زبان های هوش مصنوعی ، ساخته شدند تا روی داده های انسانی کار کنند و با اونها سیستم های خبره رو میساختند..
فکر میکنم ساختن این نرمافزارها به دهه های شصت و هفتاد بر میگرده… شاید حالا فقط منابع این نرمافزارها گسترده تر شده باشه…
اینا گوشه ای از کارایی هایی هست ک دنیای مجازی و هوش مصنویی میشه دید