در حال حاضر دو پرچمدار بزرگ هوش مصنوعی، گوگل و مایکروسافت هستند و رقابت فعلی آنها بر سر فناوری جالب و حیرتآور «یادگیری عمقی» یا Deep Learning است. رقابتی که معلوم نیست کدام برنده شود.
مغز گوگل
گوگل تحقیقات خود را به پروژهای موسوم به Google Brain معطوف کرده است. گوگل اکس، سازنده آن، سکاندار جاهطلبیهای گوگل است که پروژههایی معمولا غیراقتصادی، اما تاثیرگذار انجام میدهد. از آن جمله میتوان به پروژه Loon (طرح اینترنت بالنی) و پروژه اتومبیل خودران گوگل اشاره کرد.
مغز گوگل، یک طرح یادگیری ماشینی با تمرکز ویژه بر پردازش تصویر، اما با افقهایی به مراتب وسیعتر است. هدف پروژه، بهبود الگوریتمهای یادگیری با هدف ساخت شبکههایی عصبی است که بتوانند با قدرت پردازشی کمتر، الگوهای عمیقتر و دقیقتری از دادهها دریافت کنند. گوگل سرمایههای کلانی را به این هدف اختصاص داده که یکی از آنها، خرید استارتاپ هوش مصنوعی DeepMind به قیمت 500 میلیون دلار است.
آغازگران DeepMind چنان نگران نابودی دنیا به دست پروژه خود بودند که شرط معاملهشان با گوگل، تشکیل یک هیات نظارتی بر صحت اخلاقی این پروژه بود. تا اینجا بزرگترین میوه این پروژه، یک هوش مصنوعی است که در بازی آتاری تبحر دارد. هرچند همین چند ماه قبل بود که پروژه OpenAI توانست با الگوریتم خاص خود، DeepMind را در آتاری شکست بدهد.
از موارد دیگر کاربرد مغز گوگل در سیستم شناسایی صدای اندروید و قابلیت دستهبندی خودکار تصاویر استریتویو است. مصداق دیگر، نرمافزار Google Now است که میتواند براساس سوابق گشتوگذار کاربر، پیشنهادات مختلف ارائه و او را از برنامههایش مطلع کند. این نرمافزار رقابت تنگاتنگی با دستیار آیفون یعنی Siri دارد.
آدام مایکروسافت
رویکرد مایکروسافت در این حیطه فرق دارد. دستاندرکاران این شرکت به جای احتکار متخصصان این عرصه، سعی در بازنگری بنیادین در بحث یادگیری عمقی دارند و تلاش میکنند راههای بهتری برای موازیسازی الگوریتمهایی بیابند که خود برای «تعلیم» الگوریتمهای یادگیری عمقی به کار میروند.
آنها نام این پروژه را Microsoft Adam گذاشتهاند. شگردهایی که آنها به کار میبندند، از حجم پردازشها و پردازندههای لازم برای دسترسی به نتایج کاسته و همزمان کیفیت آنها را هم بالا میبرند. همین به دستاوردهای فنی جالبی انجامیده است. ازجمله مهارت شناسایی انواع نژادهای سگ در عکسهای مختلف، با نرخ درستی بالا. هدف آدام، شناسایی همه اشیا ممکن در تصاویر است؛ آن هم با تعداد سیستمهای 30 برابر کمتر از رقبا و شبکهای عصبی با بالغ بر دو میلیارد ارتباط. نمونه این فناوری هم دستیار مجازی مایکروسافت (کورتانا) است.
ساز و کار یادگیری عمقی چیست؟
به تعریف نسبتا ساده: یادگیری عمقی، تکنیکی برای تولید نرمافزار هوشمند است که اغلب روی شبکههای عصبی (neural networks) پیادهسازی میشود. این تکنیک، شبکههای عصبی متعدد را به هم پیوند زده و نهایتا شبکههای عظیمتر و کاربردیتری خلق میکند. هر شبکه عصبی در این زنجیره، از خروجی شبکه ماقبل خود تغذیه کرده و قدرت پردازش به مراتب بالا میرود. برای درک بهتر اهمیت یادگیری عمقی، بهتر است به فناوریهای پیشین آن هم بپردازیم.
شبکه عصبی پرورش معکوس
ساختار شبکههای عصبی چنین است که هر نورون، چون گرهای، ورودیها را دریافت و سپس طبق قوانین پیشفرض خود، آتش کرده یا خروجی میسازد. هر داده ورودی به اصطلاح وزن (ضریب کنترل مثبت یا منفی بودن سیگنال و قدرت آن) دارد.
شبکه شکل یافته از اتصال این نورونها، وظیفه راهاندازی الگوریتمها را دارد. ورودیهای باینری به نورونها تغذیه شده و خروجی آنها از راه اندازهگیری ارزش آتش نورونهای خروجی حاصل میشود. چالش اصلی هر شبکه، گزینش شبکه مطلوب نزدیک به نتیجه مفروض کاربر است. از الگوریتم پرورش معکوس، برای تعلیم شبکهها استفاده میشود: شبکه با وزنهای تصادفی راه افتاده و پاسخهای مطلوب را دستهبندی میکنند. در ازای هر خطا یا خروجی کم یا زیاد، علت خطا یافت شده و وزنها به جهت صحیحتر سوق داده میشوند. پس از چند تکرار، شبکه دستهبندی صحیح نقاط را یاد گرفته و در صورت امکان، با آنچه یاد گرفته نقاط دادهای جدید میسازد. خوبیاش این است که دادههای خطادار را میتوان به عقب فرستاد و هر لایه را مطابق آخرین تغییرات اصلاح کرد. نتیجه شبکههایی با قدرت درک فزاینده است. پرورش معکوس یا Backprop در سال 1974 و توسط جفری هنتن (Geoffrey Hinton) ابداع شد. اولین کاربرد شبکههای عصبی در حجم وسیع، پس از آن بود. شبکههای عصبی ساده از دهه 50 وجود داشتند و در ابتدای امر با نورونهای مکانیکی و موتوری ساخته میشدند.
الگوریتم پرورش معکوس را دورهگردی در عرصهای پهناور از راهحلهای بالقوه تصور کنید. هر وزن نورون، جهتی است که این الگوریتم میتواند جستوجو کند. اغلب شبکههای عصبی، هزاران مورد از اینها دارند. شبکه پدید آمده هر بار بهتر یاد میگیرد که چطور از خطاهای جستوجوهای قبلی خود عبرت گرفته و این بار از کجا و تا چه حدی پیش برود تا کمترین خطا را مرتکب شود.
البته عدم توفیق آن دلایلی دارد. جدیترین مشکل آن «مساله شیب ناپدیدشونده» است. هرچقدر داده خطا را بیشتر در طول شبکه به عقب بفرستید، به نسبت هر لایه از معنای آن کاسته میشود. این شیوه از ساخت شبکه کارآمد عمیق عاجز است. چرا که از جایی به بعد، ویرایش خطاهای لایههای عقبی ناممکن میشود.
مشکل دیگر، هرچند کوچکتر، این است که شبکههای عصبی تنها به اُپتیمای محلی (local optime) میپیوندند: چیزی شبیه گیر کردن در کوچهای تنگ و غفلت از راهبردهای عمقیتر و بهتری که به نقطه آغاز تصادفیشان دور هستند. البته این هم راهی دارد.
شبکه باور عمیق
شبکههای باور عمیق هر دوی این مشکلات را حل میکنند. این شبکهها، با اطلاعاتی از پیش تعیین شده آغاز کرده و بر اساس آنها به یادگیری و حل مشکل میپردازند. تکنیک به کار رفته در آن ساده است و براساس شبکهای موسوم به «ماشین بولتزمن محدود» یا Restricted Boltzman Machine (به اختصار RBM) بنا شده است که خود از مفهومی موسوم به «یادگیری بدون نظارت» قدرت میگیرد.
این شبکهها به جای دستهبندی اطلاعات دریافتشده، آنها را فشردهسازی میکنند. RBMها مجموعهای از نقاط دادهای را دریافت کرده و طبق قابلیتشان تعلیم میبینند تا آن نقاط دادهای را از حافظه خود تولید کنند. سادهتر بگوییم: اگر هزاران تصویر گربه را به آن بدهید، از آن پس، قادر خواهد بود با دقتی بسیار بالا ـ شاید هم بینقص ـ وجود یا عدم وجود گربه در تصاویر دیگر را تشخیص دهد. قواعد یادگیری RBM مشابه قواعد یادگیری مغز است و از این حیث میتوان با آنها تحقیقات علمی روی مغز انسان را هم بسط داد. ضعف این شبکهها این است که هرچه عمق به آنها ببخشیم، زمان تعلیمشان بالا میرود. موهبت RBM این است که میتوان RBMهای دولایه را با هم هماهنگ کرده و هر دو را تعلیم داد تا هرکدام خروجی سیستم قبلی خود را بیابند. نتیجه، شبکهای است که میتواند محتواهای پیچیده و انتزاعی را درک کند.
رقابتی برای حسابگرهای ملاحظهکار
هرچه این شبکهها بیشتر عمق بیابند، قادر خواهند بود مفاهیم عظیمتر و انتزاعیتری را هم فرابگیرند. یکی از خیرهکنندهترین موفقیتهای گوگل در سالهای اخیر، سوق دادن مترجم اینترنتیاش به سوی ترجمه مفهومی بود. البته هنوز تا ایدهآلی این سرویس راه درازی در پیش است، اما همان مقداری که تاکنون پیش رفته هم در نوع خود بینظیر است. این که واقعا کدامیک از پیشتازان عرصه هوش مصنوعی پیروز میدان خواهد شد، معلوم نیست. هرچند دغدغه اصلی ما تبعات این پیروزی است، نه مالک آن.
سیاوش شهبازی
ضمیمه کلیک جامجم
سید رضا صدرالحسینی در یادداشتی اختصاصی برای جام جم آنلاین مطرح کرد
بازگشت ترامپ به کاخ سفید چه تاثیری بر سیاستهای آمریکا در قبال ایران دارد؟
در یادداشتی اختصاصی برای جام جم آنلاین مطرح شد
در گفتگو با جام جم آنلاین مطرح شد
رضا جباری: درگفتوگو با «جام جم»:
بهتاش فریبا در گفتوگو با جامجم: