پیشرفت تازه و مهمی که در این حوزه به دست آمده، «یادگیری ماشین» است که در فناوریهایی از بررسی اشتباهات املایی و تایپی گرفته تا خودروهای بدون راننده کاربرد دارد و معمولا نوعی سامانه رایانهای به نام «شبکه عصبی» انجام آن را برعهده دارد.
شبکه عصبی مدلی بسیار سادهسازی شده از مغز انسان است که در آن مجموعهای از واحدها، اجزای نوعی ورودی (مثلا پیکسلهای عکس) را دریافت میکنند، محاسبات سادهای رویشان صورت داده، آنها را به لایه دیگری از واحدها تحویل میدهند. لایه آخر، حامل جواب خواهد بود.
مساله محوری در حوزه یادگیری ماشین به این معنی است که چطور رایانههایی بسازیم که به جای دریافت دستورالعمل صریح، عملکردشان را از طریق کسب تجربه بهتر کنند.
یادگیری ماشین در فصل مشترک علوم رایانه و آمار و در قلبِ حوزههای هوش مصنوعی و علوم دادهها قرار دارد و امروزه سرعت رشد میان حوزههای فنی دیگر بالاست.
در سامانههای مبتنی بر یادگیری ماشین، نیازی به برنامهنویسی متخصصان با استفاده از دانش خودشان نیست، بلکه خود این سامانهها آنچه را که باید، از روی مجموعه دادههای کلان میآموزند! تا جایی که در نهایت میتوانند در مجموعه دادههایی بس عظیمتر و آشفتهتر از آنچه انسانها از عهده تحلیلشان بر میآیند، الگوهای موجود را مشاهده و ناهنجاریها را تشخیص دهند.
پیشرفتهای اخیر در حوزه یادگیری ماشین، هم به سبب توسعه نظریه و الگوریتمهای جدید یادگیری و هم در نتیجه در دسترس بودن کلاندادهها و محاسبات رایانهای کمهزینه حاصل شده است. این پیشرفتها به اندازهای است که اکنون در حوزههای مختلف علم، فناوری و تجارت میتوان ردپای هوش مصنوعی و روشهای یادگیری ماشین را مشاهده کرد.
محکی قدیمی برای هوش مصنوعی: جستوجوی ذرات جدید
اواخر دهه 1360/1980 بود که پژوهشگران حوزه فیزیک ذرات بهصورت نهچندان جدی سراغ هوش مصنوعی رفتند.
این حوزه از فیزیک با هوش مصنوعی و الگوریتمهای یادگیری ماشین سازگاری خوبی دارد، زیرا در اغلب آزمایشهای فیزیک ذرات، پژوهشگران باید الگوهای مکانی نامحسوس ذرات را در میان بیشمار مورد مشابه در آشکارسازها جستوجو کنند؛ دقیقا همان چیزی که هوش مصنوعی به بهترین نحو انجام میدهد.
سالها طول کشید تا اعضای جامعه علمی متقاعد شوند این روش، شیوه مرموز و بیپایهای نیست و اکنون روشهای هوش مصنوعی از ابزارهای استاندارد فیزیکدانان به شمار میرود.
در سال 1391/2012، گروههایی از پژوهشگران که با بزرگترین برخورددهنده پروتون در جهان یعنی الاچسی LHC (سرواژه Large Hadron Collider به معنی برخورددهنده هادرونی بزرگ) در سوئیس کار میکردند، ذرهای را به نام بوزون هیگز پیدا کردند که وجود آن مدتها قبل پیشبینی شده بود.
این ذره گریزپا، برای توجیه نحوه جرمدار شدن همه ذرات بنیادی به کار میرود، اما تشخیص آن اصلا آسان نیست؛ در الاچسی، بوزون هیگز تقریبا فقط در یک برخورد از میان یک میلیارد برخورد پروتونی ایجاد میشود و طی مدت یک میلیاردم پیکوثانیه دچار واپاشی شده، ذرات دیگر را شکل میدهد؛ از جمله زوجی از پروتونها و مجموعهای چهارتایی از ذراتی به نام میون.
برای بازسازی ذره هیگز، فیزیکدانان باید همه این ذرات عادیتر را پیدا کنند و ببینند آیا با توجه به وضعیتشان ممکن است منشا همه آنها یک ذره بوده باشد یا خیر. البته کار آنان به سبب وجود تعداد زیادی ذره فرعی که در برخوردها ایجاد میشوند، دشوارتر هم میشود.
الگوریتمهایی مانند شبکههای عصبی برای پیدا کردن آثار ذرات مورد نظر در میان ذرات زمینه بسیار کارآمد هستند. در آشکارسازهای ذرات ـ که معمولا دستگاههایی بشکه مانند با انواع مختلف حسگرها هستند ـ هر فوتون در قسمتی از دستگاه به نام «گرماسنج الکترومغناطیسی» تعداد زیادی ذره یا به عبارتی بهمنی از ذرات ایجاد میکند. الکترونها و ذرات دیگری به نام هادرونها نیز چنین ذراتی تولید میکنند، اما بهمنهای آنها اندکی با بهمن ناشی از فوتونها متفاوت است.
الگوریتمهای یادگیری ماشین میتوانند با یافتن همبستگیهایی میان متغیرهای مختلف توصیفکننده این بهمنها، آنها را از هم تمیز دهند.
همچنین این الگوریتمها میتوانند برای مثال به تشخیص زوج فوتونی که از واپاشی هیگز به وجود میآید از دیگر زوجهای فوتونی، کمک کنند.
روشهای یادگیری ماشین هنوز حوزه فیزیک ذرات را به طور کامل قبضه نکردهاند؛ همچنان فیزیکدانان برای جستجوی آثار ذرات و پدیدهها در میان دادهها، بیشتر بر درکشان از فیزیک بنیادی تکیه دارند. اما این احتمال وجود دارد که بزودی هوش مصنوعی در این زمینه اهمیت بیشتری پیدا کند؛ پژوهشگران قصد دارند در سال 1403/2024 الاچسی را بهگونهای ارتقا دهند که تعداد برخوردها در آن ده برابر شود. در آن مقطع، یادگیری ماشین برای بررسی سیل دادههای جدیدی که به دست میآید ضروری خواهد بود.
چگونه میتوان با الگوریتمهای هوش مصنوعی وضع روحی و جسمی افراد را تحلیل کرد؟
شبکههای اجتماعی با میلیاردها کاربر و صدها میلیارد توئیت و پُست که هر ساله در آنها منتشر میشود، کلاندادهها را به حوزه علوم اجتماعی بردهاند. بعلاوه فرصت بینظیری برای استفاده از هوش مصنوعی برای درک ارتباطات انسانی، پدید آمده است.
برخی پژوهشگران از روشهای یادگیری ماشین و پردازش زبان طبیعی برای غربالکردن دادههای حجیم استفاده میکنند تا به تعیین وضع سلامت جسمی و روحی عموم بپردازند. این کار به روش سنتی با آمارگیری انجام میشود. اما دادههای شبکههای اجتماعی به واقعیت نزدیکتر و بسیار ارزانتر هستند و حجم آنها دهها برابر بیشتر است البته این دادهها اندکی درهم و آشفته هستند، اما هوش مصنوعی روشی قدرتمند را برای تشخیص الگو در میان آنها ارائه میدهد.
برای مثال در پژوهشی که بتازگی انجام شد، پژوهشگران دانشگاه پنسیلوانیا به پستهای 29هزار کاربر پرداختند که میزان افسردگی خود را با آزمونهایی ارزیابی کرده بودند. الگوریتم یادگیری ماشین با استفاده از دادههای 28هزار نفر از این کاربران، ارتباطی را بین واژههای به کار رفته در پستهای تازه و سطح افسردگی آنان پیدا کرد. پس از این کشف، الگوریتم توانست میزان افسردگی را در کاربران دیگر صرفا براساس پستهای جدیدشان تعیین کند.
این گروه از محققان در پژوهشی دیگر، میزان مرگ و میر ناشی از بیماریهای قلبی را با تجزیه و تحلیل 148میلیون توئیت پیشبینی کردند.
مشخص شد واژههایی که با خشم و روابط منفی ارتباط دارند، از نشانههای خطر بیماری قلبی هستند. آمار واقعی مرگومیر بیشتر با پیشبینیهای انجام شده بر اساس شبکههای اجتماعی مطابقت داشت تا پیشبینیهای صورت گرفته بر مبنای ده عامل اول خطرساز بیماری قلبی از قبیل سیگار و دیابت.
پژوهشگران همچنین با استفاده از شبکههای اجتماعی به پیشبینی شخصیت، مقدار درآمد و گرایش سیاسی افراد و همچنین بررسی کلیشهها و قالبهای اجتماعی پرداختند!
جیمز پِنِبیکر از دانشگاه تگزاس که در پژوهشهای خود به جای محتوا بر نحوه بیان متمرکز است، دریافته که میتوان از واژههای دستوری بهکار رفته در درخواست پذیرش اشخاص در دانشگاه، برای پیشبینی نمرات احتمالی آنان استفاده کرد. استفاده از حرف تعریف و حرف اضافه نشاندهنده تفکر تحلیلی (تفکر مبتنی بر حقایق ثابت شده و نظریهها) است و میتوان از روی آن نمرات بالا را پیشبینی کرد. استفاده از ضمیر و قید نشاندهنده تفکر روایی (تفکر مبتنی بر تجربههای شخصی و روایتهای دیگران) است که از نمرات پایینتری خبر میدهد.
او همچنین دلایلی برای تایید ادعای افرادی یافته است که نمایشنامهای مربوط به سال 1728میلادی به نام دروغ دوگانه (Double Falsehood) را نوشته ویلیام شکسپیر میدانند: الگوریتمهای یادگیری ماشین، تطابق این نمایشنامه را از نظر عواملی مانند پیچیدگی و واژههای نادر، با دیگر آثار شکسپیر نشان میدهد!
جستوجوی ریشههای اوتیسم در ژنوم
شناخت منشا اوتیسم برای پژوهشگران حوزه ژنتیک، چالشی بزرگ به شمار میرود. مشخص شده است این بیماری یک مؤلفه وراثتی دارد، اما تغییراتی که در انبوه ژنهای موجود، نقشی شناخته شده در اوتیسم دارند، فقط 20 درصد کل موارد را توجیه میکنند.
یافتن متغیرهای ژنتیک دیگری که ممکن است در این بیماری نقش داشته باشند، نیاز به بررسی 25هزار ژن انسانی دیگر و دیانای اطرافشان دارد که برای انسان کار بسیار دشواری به شمار میرود. به همین علت پژوهشگری از دانشگاه پرینستون و همکارانش روشهای هوش مصنوعی را برای این منظور به کار گرفتهاند.
آنان صدها مجموعه داده را با هم ترکیب کردهاند؛ دادههایی درباره این که چه ژنهایی در سلولهای انسانی مشخصی فعال هستند، برهمکنش پروتئینها چگونه است و جایگاههای اتصال فاکتور رونویسی ژنتیک و سایر خصوصیات مهم مربوط به ژنوم کجا هستند سپس آنان با استفاده از یادگیری ماشین، نقشه برهمکنش ژنها را ایجاد کردند و برهمکنشهای ژنهایی که قطعا خطر اوتیسم را ایجاد میکنند را با برهمکنشهای هزاران ژن ناشناخته دیگر مقایسه کردند تا مشابهتهایی بینشان بیابند و به این ترتیب 2500 ژن دیگر را که احتمالا در اوتیسم نقش دارند شناسایی کردند.
اما همانگونه که پژوهشگران بتازگی دریافتهاند، ژنها به تنهایی عمل نمیکنند؛ رفتار آنها تحت تاثیرمیلیونها باز آلی غیررمزگذار در نزدیکیشان قرار میگیرد که با پروتئینهای متصل شونده به دیانای و عوامل دیگر برهمکنش دارند.
مشخصکردن این که کدام تغییرات ناحیه بیرمز ممکن است بر ژنهای اوتیسم دور و بر آنها اثر بگذارد حتی از پیدا کردن این ژنها نیز دشوارتر است و برای تعیین آنها از هوش مصنوعی کمک گرفته شده است.
پژوهشگران برای آموزش دادن برنامه ـ که یک سامانه یادگیری عمیق است و «دیپ سی (DeepSEA) » نامیده میشود ـ آن را در معرض دادههایی قرار دادند که از نحوه اثر دهها هزار ناحیه بیرمز دیانای بر ژنهای اطرافشان موجود بود.
سامانه یاد گرفت که برای یافتن فعالیتهای احتمالی در نواحی بیرمز دیانای، به دنبال چه ویژگیهایی بگردد. این محققان اکنون مشغول اجرای برنامه با دادههای مربوط به ژنوم بیماران مبتلا به اوتیسم هستند تا اثرات بازهای آلی غیر رمزگذار را رتبهبندی کنند.
ماشینهایی که از اسرار آسمان سر در میآورند
فروردین امسال اخترشناسی به نام کوین شاوینسکی تصاویر محوی از چهار کهکشان در توئیتر منتشر و از اخترشناسان دیگر تقاضا کرد در طبقهبندی آنها به او کمک کنند. اخترشناسان در جواب او گفتند این تصاویر شبیه کهکشانهای بیضوی و مارپیچی، یعنی انواع آشنای کهکشانها هستند.
بعضی از اخترشناسان که به سبب گرایش محاسباتی شاوینسکی مشکوک شده بودند حقهای در کار باشد، بصراحت از او پرسیدند آیا این کهکشانها واقعی هستند؟ یا شبیهسازیهایی بر پایه مدلسازی فیزیکی با رایانهاند؟ در واقع این کهکشانها هیچیک از این دو نبودند.
شاوینسکی و همکارانش در موسسه ایتیاچ (ETH) زوریخ این کهکشانها را در شبکهای عصبی که هیچ دانش فیزیکی ندارد، عمل آورده بودند؛ شبکهای که صرفا میداند کهکشانها باید چه ظاهری داشته باشند! شاوینسکی میخواست با این پست توئیترش دریابد تا چه حد ساختههای شبکه واقعی به نظر میرسند اما هدف بزرگتر او ایجاد فناوریتازهای بود: طراحی شبکهای که بتواند تصویر تاری از یک کهکشان را طوری اصلاح کند که گویی با تلسکوپ بهتری گرفته شده است.
چنین چیزی به اخترشناسان این امکان را میدهد که جزئیات بیشتر و اطلاعات دقیقتری را از رصدهای نجومی خود به دست آورند.
تصاویر جعلیای که شاوینسکی در توئیتر منتشر کرد، حاصل کار یک شبکه رقابتی مولد بود؛ نوعی مدل یادگیری ماشین که دو شبکه عصبی را رودرروی هم قرار میدهد تا با هم رقابت کنند.
یکی از آنها شبکه مولد است که از خود تصاویر جعلی را میسازد، دیگری شبکه ممیز (ارزیاب) است که میکوشد هر نقصی را که ممکن است نشانه دستکاری باشد بر ملا کند و از این طریق مولد را وا میدارد که عملکرد بهتری داشته باشد.
گروه شاوینسکی کیفیت هزاران تصویر واقعی از کهکشانها را به صورت ساختگی کاهش و به مولد آموزش داد که با ویرایش عکسها آنها را دوباره باکیفیت کند تا جایی که ممیز نتواند بر آنها اشکالی وارد کند. در نهایت این شبکه توانست از بقیه روشهای افزایش وضوح تصاویر نویزدار بهتر عمل کند.
در پژوهشی دیگر نیز نوعی راهکار یادگیری ماشین برای یافتن عدسیهای گرانشی در اعماق فضا ارائه شده است.
عدسیهای گرانشی کمانهایی از نور در آسماناند که در موارد نادری تشکیل میشوند که نور کهکشانی دوردست در مسیرش به سوی زمین از فضا ـ زمانی که خمیده شده است، عبور کند.
این کهکشانها را میتوان برای اندازهگیری فواصل در کیهان و یافتن نواحی غیرقابل مشاهده تجمع جرم به کار برد. عدسیهای گرانشی قوی با چشم قابل تمیز دادن هستند، اما بسختی میتوان آنها را با قوانین ریاضی ساده توصیف کرد.
به عبارتی تشخیصشان برای رایانههای سنتی دشوار و برای انسان آسان است. پژوهشگران دریافتند شبکهای عصبی که با هزاران مورد عدسی تعلیم دیده باشد، میتواند بصیرت و شهود مشابهی پیدا کند. تاکنون بیش از 10 مقاله درباره جستوجوی عدسیهای گرانشی قوی با روشهای مختلف یادگیری ماشین منتشر شده است.
شبکههای عصبی، هنر سنتز شیمیایی را میآموزند
مانند آشپزی که با تصوری از غذای آماده شده در ذهن خود کارش را آغاز میکند و سپس به این فکر میکند که چگونه آن را آماده کند، بسیاری از پژوهشگران حوزه شیمی آلی نخست ساختار نهایی مولکولی را که میخواهند بسازند در نظر میگیرند و سپس میاندیشند که چگونه آن را سر هم کنند.
اکنون آنان امیدوارند با کمک هوش مصنوعی بر یکی از دشواریهای مهم ساختن مولکولها غلبه کنند: انتخاب اجزای سازنده درست از میان صدها گزینه بالقوه و انتخاب قواعد مناسب شیمیایی برای پیوند دادن آنها از بین هزاران قاعده موجود.
چند دهه شیمیدانان با زحمت و تلاش زیاد واکنشهای شیمیایی شناخته شده را به صورت برنامههای رایانهای مینوشتند، به این امید که سامانهای ایجاد کنند که بتواند بسرعت سادهترین دستورهای ساخت مولکولها را محاسبه کند اما نوشتن همه قواعد به زبان باینری کار بسیار دشواری است؛ از این رو بعضی از شیمیدانان به هوش مصنوعی روی آوردند و به جای وارد کردن قواعد معین واکنشهای شیمیایی، برنامه شبکه عصبی عمیقی را طراحی کردند که از روی میلیونها نمونه، یاد میگیرد واکنشها چگونه پیش میروند.
هر چه دادههای بیشتری به این شبکه خورانده شود، عملکرد آن بهتر میشود. به مرور این شبکه یاد گرفت بهترین واکنش را برای گام دلخواهی از سنتز شیمیایی پیشبینی کند و در نهایت توانست دستوراتی را برای ساختن مولکولها از گام اول وضع کند.
این برنامه روی 40هدف مولکولی مختلف آزمایش و با یک برنامه طراحی مولکول که به روش سنتی نوشته شده بود، مقایسه شد. در حالیکه برنامه نوشته شده به شیوه سنتی در 22.5 درصد موارد توانست در مدت دو ساعت به راهی برای ساخت مولکولهای هدف دست یابد، هوش مصنوعی در 95 درصد موارد به آن رسید.
این روش میتواند برای بهبود فرآیند تولید دارو نیز به کار برده شود. البته هنوز برای قضاوت درباره موفقیتآمیز بودن این روش در عمل زود است، اما ممکن است تحول بزرگی نه فقط در ساختن مولکولهای شناخته شده بلکه در یافتن روشهایی برای ساختن مولکولهای جدید ایجاد کند.
البته هوش مصنوعی در آینده نزدیک جای متخصصان شیمی آلی را نمیگیرد، چون شیمیدانها قادرند کارهایی فراتر از پیشبینی روند فرآیندها انجام دهند. هوش مصنوعی به سامانه موقعیت یابی جیپیاس برای شیمی میماند، ممکن است برای یافتن مسیر مفید باشد، اما نمیتواند سنتز کاملی را به تنهایی طراحی و اجرا کند؛ هرچند پژوهشگران حوزه هوش مصنوعی به دنبال رسیدن به این توانایی هم هستند.
کیارا عباسزاده اقدم- جامجم
منبع: وبگاه نشریات ساینس
در یادداشتی اختصاصی برای جام جم آنلاین مطرح شد
در یادداشتی اختصاصی برای جام جم آنلاین مطرح شد
عضو دفتر حفظ و نشر آثار رهبر انقلاب در گفتگو با جام جم آنلاین مطرح کرد
در یادداشتی اختصاصی برای جام جم آنلاین مطرح شد
گفتوگوی عیدانه با نخستین مدالآور نقره زنان ایران در رقابتهای المپیک
رئیس سازمان اورژانس کشور از برنامههای امدادگران در تعطیلات عید میگوید
در گفتوگوی اختصاصی «جامجم» با دکتر محمدجواد ایروانی، عضو مجمع تشخیص مصلحت نظام بررسی شد