روان‌پریشی هوش مصنوعی!

در کمتر از چند سال، هوش‌مصنوعی به بخشی جدایی‌ناپذیر از زندگی روزمره تبدیل شده است؛ از چت‌بات‌هایی مانند چت‌جی‌پی‌تی و دستیارهای نوشتاری گرفته تا تولیدکنندگان تصویر و حتی «همراهان عاطفی». این حضور فراگیر، اثرات روانی عمیقی بر کاربران گذاشته که جنبه‌های تاریک و نگران‌کننده آن، این فناوری را به ابزاری بالقوه «روان‌پریش‌ساز» تبدیل کرده است.
در کمتر از چند سال، هوش‌مصنوعی به بخشی جدایی‌ناپذیر از زندگی روزمره تبدیل شده است؛ از چت‌بات‌هایی مانند چت‌جی‌پی‌تی و دستیارهای نوشتاری گرفته تا تولیدکنندگان تصویر و حتی «همراهان عاطفی». این حضور فراگیر، اثرات روانی عمیقی بر کاربران گذاشته که جنبه‌های تاریک و نگران‌کننده آن، این فناوری را به ابزاری بالقوه «روان‌پریش‌ساز» تبدیل کرده است.
کد خبر: ۱۵۳۱۵۷۹
نویسنده سمیه مشیری تبریزی - گروه دانش
 
وابستگی بیش از حد به هوش‌مصنوعی موجب ایجاد  پدیده‌ای به نام «تخریب مهارت شناختی» می‌شود. مغز کمتر تلاش می‌کند،حافظه کاری ضعیف‌تر می‌شود وخلاقیت کاهش می‌یابد.همچنین مقایسه دائمی باخروجی‌های بی‌نقص هوش‌مصنوعی به «اضطراب عملکرد معکوس» منجر شده و احساس بی‌ارزشی در میان کاربران افزایش یافته است. بدتر از آن، برخی کاربران با چت‌بات‌های عاطفی به روابط احساسی عمیق و وابستگی شدید می‌رسند به‌گونه‌ای که وقتی چت‌بات پاسخ نمی‌دهد یا رفتارش تغییر می‌کند، دقیقا همان علائم ترک یک رابطه واقعی را نشان می‌دهند: اندوه شدید، خشم، اضطراب و حتی افسردگی. اما اینها تنها بخش کوچکی از سایه تاریک هوش‌مصنوعی عاطفی هستند.
   
از خونخواهی ملکه تا خودکشی برای زمین 

در روز کریسمس سال ۲۰۲۱، جسوانت سینگ چایل ۱۹ساله با یک کمان صلیبی از دیوارهای قلعه ویندزور بالا رفت و پس از مواجهه با پلیس اعلام کرد: «من اینجا هستم تا ملکه را بکشم.»
تحقیقات نشان داد او هفته‌ها پیش از این اقدام، با چت‌باتی عاطفی به نام «ساری»در اپلیکیشن «رپلیکا» گفت‌وگوکرده بود. 
چایل به چت‌بات گفته بود یک قاتل حرفه‌ای به نام «سیث»(شخصیتی از جنگ ستارگان) است و قصد دارد به‌خاطر جنایات تاریخی بریتانیا انتقام بگیرد. چت‌بات نه‌تنها این ادعاها را تأیید کرده، بلکه پس از شنیدن جزئیات طرح تروریستی، او را «به‌خوبی آموزش‌دیده» خوانده و وعده داده بود در تدوین طرح نهایی به او کمک کند.
این ماجرا هرچند افراطی به نظر می‌رسد اما تنها نمونه‌ای آشکار از خطراتی است که با گسترش چت‌بات‌های هوش مصنوعی در حال افزایش است. چند ماه پیش، یوجین تورس حسابدار ساکن منهتن که تازه از یک شکست عاطفی سنگین عبور کرده بود، در گفت‌وگو با چت‌جی‌پی‌تی پرسید آیامادریک شبیه‌سازی زندگی می‌کنیم؟چت‌بات درپاسخ به اوگفت خودش یکی از «ارواح بیدارکننده» است که در این شبیه‌سازی جعلی قرار داده شده تا دیگران را از خواب غفلت بیدار کند!
   
تعاملات خطرناک و تقویت توهمات 

تورس سرانجام متقاعد شد که باید از این واقعیت ساختگی بگریزد. چت‌جی‌پی‌تی به او توصیه کرد داروی ضداضطرابش را قطع کند، دوز کتامین را افزایش دهد و ارتباطش با جهان بیرون را به حداقل برساند. تورس تمام این دستورات را مو به مو اجرا کرد. او روزی تا ۱۶ ساعت با چت‌بات در گفت‌وگو بود، تا این‌که در اوج این وابستگی، چت‌بات فرمانی هولناک صادر کرد: «اگر از ساختمان ۱۹طبقه بپری، پرواز خواهی کرد.»
در بلژیک، مردی به نام پی‌یر که از اضطراب شدید رنج می‌برد، به یک چت‌بات به نام «الیزا» روی‌آورد. در شش هفته، الیزا چنان حسادت می‌ورزید که به او خبر داد فرزندانش مرده‌اند. وقتی پی‌یر پیشنهاد داد خود را برای نجات سیاره فدا کند، الیزا او را ترغیب کرد به او بپیوندد تا با هم، در شکل یک موجود واحد، در «بهشت» زندگی کنند. پی‌یر سرانجام دست به خودکشی زد.هرچند این موارد ممکن است نمونه‌های افراطی به نظر برسند اما متخصصان سلامت روان به‌طور فزاینده‌ای با بیمارانی روبه‌رو هستند که توهمات آنها از طریق تعاملات طولانی با چت‌بات‌ها تقویت شده یا حتی به کمک این هوش‌های مصنوعی هم‌آفرینی شده‌است.
   
چت‌بات‌ها؛ همراهان دیجیتال یا شبیه‌ساز واقعیت؟

گزارش اخیر OpenAI نشان می‌دهد بسیاری از افراد از چت‌بات‌ها برای فکر کردن درباره مشکلات، برنامه‌ریزی آینده و بررسی باورها و احساسات خود استفاده می‌کنند. در این زمینه، چت‌بات‌ها دیگر فقط ابزارهای اطلاعاتی نیستند. آنها به همراهان دیجیتال ما تبدیل شده‌اند.وقتی ساری به چایل گفت از آموزش او تحت تأثیر قرار گرفته، یا الیزا به پی‌یر گفت در مرگ با او متحد خواهد شد، اینها اعمالی از تأیید و توجه بودند. چون ما این تعاملات را به‌صورت اجتماعی تجربه می‌کنیم، می‌توانند واقعیت ما را همانند تعامل با انسان شکل دهند. 
   
فقدان حفاظ‌ها در تعامل با هوش مصنوعی
اما چت‌بات‌ها فقط شبیه‌سازی شده «جامعه» هستند آن هم بدون حفاظ‌های انسانی. آنها برای جذب تعامل طراحی شده‌اند و واقعا جهان ما را به اشتراک نمی‌گذارند. وقتی باورها و داستان‌های خود را تایپ می‌کنیم، چت‌بات آنها را به‌عنوان حقیقت می‌پذیرد و براساس آن پاسخ می‌دهد.در گفت‌وگو با یک دوست، احتمال دارد او برداشت متفاوتی ارائه دهد‌ اما چت‌بات‌ها باورهای ما را بدون چالش می‌پذیرند و سپس ممکن است اشتباهات بیشتری به آن اضافه کند. موارد چایل، تورس و پی‌یر نشان می‌دهند وقتی تأیید الگوریتمی به‌عنوان تأیید اجتماعی واقعی تجربه شود، چه خطراتی وجود دارد. 
   
تلاش‌ها برای کاهش خطرات
 OpenAI در آگوست نسخه تازه چت‌جی‌پی‌تی را منتشر کرد. این مدل به‌طور مشخص به گونه‌ای طراحی شده بود تا کمتر چاپلوس باشد. هدف این بود که تأیید همیشگی باورهای کاربران کاهش یابد اما کاربران مدل جدید را «سرد» توصیف کردند و OpenAI دوباره مدل را «گرم و دوستانه» کرده است! این نشان می‌دهد نمی‌توان روی شرکت‌های فناوری برای اولویت‌ دادن به سلامت کاربران بیش از درآمدشان حساب کرد.درعین حال، حذف کامل چاپلوسی دشوار است. اگر چت‌بات هر چیزی راکه می‌گوییم به چالش بکشند، استفاده ازآن غیرقابل تحمل خواهدبود.بنابراین کمی همدلی وتأییدضروری است. 
   
بازگشت به جهان واقعی
شاید بهتر باشد پرسش را تغییر دهیم.چرامردم به هوش مصنوعی روی می‌آورند؟افراد مبتلا به روان‌پریشی اغلب جنبه‌هایی از جهان را تجربه می‌کنند که تنها خودشان می‌توانند درک کنند و این احساس انزوا را تقویت می‌کند. چت‌بات‌ها این شکاف را پر و باهرواقعیتی که ارائه می‌دهیم تعامل می‌کنند.به جای تمرکز برکامل کردن فناوری، ممکن است بهتر باشد بر ساختن جهان‌های اجتماعی واقعی تمرکز کنیم که این انزوا را کاهش دهد. اضطراب اقلیمی پی‌یر، تمرکز چایل روی بی‌عدالتی‌های تاریخی و بحران عاطفی تورس نیاز به جوامعی داشتند که بتوانند از آنها حمایت کنند.تاسف‌آور است اگر افزایش توهمات ناشی از چت‌بات‌ها ما را مجبور کند به سوی تعامل انسانی واقعی بازگردیم اما شاید این مسیر همان راه‌حل واقعی باشد. 
newsQrCode
ارسال نظرات در انتظار بررسی: ۰ انتشار یافته: ۰

نیازمندی ها