در همین فاصله کوتاه از رونمایی از هوشمصنوعی نشانه این تحقق به چشم آمده است، تازهترینش خودکشی یک شهروند آمریکایی پس از مشورت با همین هوشمصنوعی است! واقعهای هولناک که تا پیش از این ردش را میتوانستیم فقط در فیلمها و سریالهای آخرالزمانی هالیوودی ببینیم و بس. برخی پژوهشگران حوزه هوشمصنوعی هم باور دارند که این فناوری بهتدریج علیه انسان سلاح به دست خواهد گرفت و او را خواهد کشت اما باید دید که هوشمصنوعی چرا و چگونه این کار را انجام خواهد داد. فروپاشی شغل، هرزنامهها و اطلاعات نادرست، منسوخ شدن انسانیت و فروپاشی جامعه را فراموش کنید. برخی باور دارند که هوشمصنوعی در اولین فرصت، تمام حیات بیولوژیکی را از بین خواهد برد.
این نخستین بار نیست که بشر بهدلیل خلاقیتهای فناورانه خود، احتمال انقراض را نادیده میگیرد اما تهدید هوشمصنوعی با سلاحهای هستهای که ما یاد گرفتهایم با آنها زندگی کنیم، بسیار متفاوت است. سلاحهای هستهای نمیتوانند فکر کنند، دروغ بگویند، انسان را فریب دهند یا چیزی را دستکاری کنند. همچنین، سلاحهای هستهای نمیتوانند برنامهریزی و اجرا کنند. یکی باید دکمه قرمز بزرگ را فشار دهد. ظهور تکاندهنده هوشمصنوعی همهمنظوره، حتی در سطح آهسته و همراه با ایراد«GPT-۴» خطر واقعی نابودی را به گفتوگو بازگردانده است.
حتی اگر موافق باشیم که ابرهوشمصنوعی فرصتی را برای از بین بردن تمام حیات روی زمین دارد، باز هم به نظر نمیرسد که بتوانیم کاری در مورد آن انجام دهیم. این ناتوانی فقط به این دلیل نیست که ما نمیدانیم چگونه جلوی چیزهای هوشمندتر از خود را بگیریم، بلکه به این دلیل است که ما حتی نمیتوانیم بهعنوان یک گونه، خود را از رقابت برای ایجاد آن باز داریم. چه کسی قرار است قوانین را وضع کند؟ این یک معضل جهانی است. نامههای سرگشاده ناامیدانه رهبران صنعتی مبنی بر درخواست یک مکث شش ماهه برای فهمیدن اینکه در کجا هستیم، ممکن است بهترین کاری باشد که میتوانیم انجام دهیم.
نخست باید توجه داشت که این یک مسابقه تسلیحاتی است و هر کشوری که اول به نتیجه برسد، ممکن است بر جهان حکومت کند. در هر حال، موضوع اقتصاد نیز وجود دارد. هرچه هوشمصنوعی هوشمندتر و توانمندتری ایجاد کنید، دستگاه چاپ پول بزرگتری دارید. الیزر یودکوفسکی، پژوهشگر و فیلسوف هوشمصنوعی میگوید: «آنها طلا بیرون میریزند تا زمانی که به اندازه کافی بزرگ شوند، جو را متشنج کنند و همه را بکشند.» یودکوفسکی مدتهاست که یکی از صداهای پیشرو در کمپین «هوشمصنوعی همه ما را خواهد کشت» بوده است و افرادی که رقابت را به سمت ابرهوش هدایت میکنند، دیگر فکر نمیکنند که او یک انسان پستفطرت است. در این میان افرادی هم هستند که باور دارند از پیامدهای چنین موضوعی، گریزی نداریم. سم آلتمن، مدیرعامل «OpenAI» یکی از آنهاست که معتقد است: «این احتمال وجود دارد و واقعا مهم است که آن را بپذیریم، زیرا اگر در مورد این مشکل صحبت نکنیم و آن را بالقوه واقعی در نظر نگیریم، تلاش کافی را برای حل کردن آن نخواهیم داشت.»
مگر ماشینها برای خدمت کردن و احترام گذاشتن به ما طراحی نشدهاند و آموزش ندیدهاند؟ مطمئنا همینطور است اما هیچکس بهسادگی یک رمز را برای GPT-۴ نمینویسد. این کار بهسادگی امکانپذیر نخواهد بود. در عوض، OpenAI یک ساختار یادگیری عصبی را با الهام از نحوه اتصال مغز انسان به مفاهیم ایجاد کرد. این شرکت با سرویس «مایکروسافت آژور» کار کرد تا سختافزاری را برای اجرای آن بسازد. سپس، آن را با حجم قابلتوجهی از متن انسانی تغذیه کرد و به GPT امکان داد تا خودش را بهطور مؤثر برنامهریزی کند.
هیچکس واقعا نمیداند که آیا چیزی شبیه به یک ذهن در این فناوری وجود دارد، دقیقا میتوان گفت که چقدر هوشمند است، چگونه میتوان فهمید که واقعا هوشیار شده است و آیا اصلا این چیزها مهم هستند یا خیر. این فناوری بهطور درخشانی یک هوش حساس را تجسم میکند و با جهان تعامل دارد؛ مگر اینکه بهطور ویژه به آن بگویید این کار را نکند. شاید همین کافی باشد.
یک کارشناس روابط بینالملل در گفتگو با جامجمآنلاین مطرح کرد
در گفتگو با جام جم آنلاین مطرح شد
در گفتگو با جام جم آنلاین مطرح شد
در گفتگو با جام جم آنلاین مطرح شد