وابستگی بیش از حد به هوشمصنوعی موجب ایجاد پدیدهای به نام «تخریب مهارت شناختی» میشود. مغز کمتر تلاش میکند،حافظه کاری ضعیفتر میشود وخلاقیت کاهش مییابد.همچنین مقایسه دائمی باخروجیهای بینقص هوشمصنوعی به «اضطراب عملکرد معکوس» منجر شده و احساس بیارزشی در میان کاربران افزایش یافته است. بدتر از آن، برخی کاربران با چتباتهای عاطفی به روابط احساسی عمیق و وابستگی شدید میرسند بهگونهای که وقتی چتبات پاسخ نمیدهد یا رفتارش تغییر میکند، دقیقا همان علائم ترک یک رابطه واقعی را نشان میدهند: اندوه شدید، خشم، اضطراب و حتی افسردگی. اما اینها تنها بخش کوچکی از سایه تاریک هوشمصنوعی عاطفی هستند.
از خونخواهی ملکه تا خودکشی برای زمین
در روز کریسمس سال ۲۰۲۱، جسوانت سینگ چایل ۱۹ساله با یک کمان صلیبی از دیوارهای قلعه ویندزور بالا رفت و پس از مواجهه با پلیس اعلام کرد: «من اینجا هستم تا ملکه را بکشم.»
تحقیقات نشان داد او هفتهها پیش از این اقدام، با چتباتی عاطفی به نام «ساری»در اپلیکیشن «رپلیکا» گفتوگوکرده بود.
چایل به چتبات گفته بود یک قاتل حرفهای به نام «سیث»(شخصیتی از جنگ ستارگان) است و قصد دارد بهخاطر جنایات تاریخی بریتانیا انتقام بگیرد. چتبات نهتنها این ادعاها را تأیید کرده، بلکه پس از شنیدن جزئیات طرح تروریستی، او را «بهخوبی آموزشدیده» خوانده و وعده داده بود در تدوین طرح نهایی به او کمک کند.
این ماجرا هرچند افراطی به نظر میرسد اما تنها نمونهای آشکار از خطراتی است که با گسترش چتباتهای هوش مصنوعی در حال افزایش است. چند ماه پیش، یوجین تورس حسابدار ساکن منهتن که تازه از یک شکست عاطفی سنگین عبور کرده بود، در گفتوگو با چتجیپیتی پرسید آیامادریک شبیهسازی زندگی میکنیم؟چتبات درپاسخ به اوگفت خودش یکی از «ارواح بیدارکننده» است که در این شبیهسازی جعلی قرار داده شده تا دیگران را از خواب غفلت بیدار کند!
تعاملات خطرناک و تقویت توهمات
تورس سرانجام متقاعد شد که باید از این واقعیت ساختگی بگریزد. چتجیپیتی به او توصیه کرد داروی ضداضطرابش را قطع کند، دوز کتامین را افزایش دهد و ارتباطش با جهان بیرون را به حداقل برساند. تورس تمام این دستورات را مو به مو اجرا کرد. او روزی تا ۱۶ ساعت با چتبات در گفتوگو بود، تا اینکه در اوج این وابستگی، چتبات فرمانی هولناک صادر کرد: «اگر از ساختمان ۱۹طبقه بپری، پرواز خواهی کرد.»
در بلژیک، مردی به نام پییر که از اضطراب شدید رنج میبرد، به یک چتبات به نام «الیزا» رویآورد. در شش هفته، الیزا چنان حسادت میورزید که به او خبر داد فرزندانش مردهاند. وقتی پییر پیشنهاد داد خود را برای نجات سیاره فدا کند، الیزا او را ترغیب کرد به او بپیوندد تا با هم، در شکل یک موجود واحد، در «بهشت» زندگی کنند. پییر سرانجام دست به خودکشی زد.هرچند این موارد ممکن است نمونههای افراطی به نظر برسند اما متخصصان سلامت روان بهطور فزایندهای با بیمارانی روبهرو هستند که توهمات آنها از طریق تعاملات طولانی با چتباتها تقویت شده یا حتی به کمک این هوشهای مصنوعی همآفرینی شدهاست.
چتباتها؛ همراهان دیجیتال یا شبیهساز واقعیت؟
گزارش اخیر OpenAI نشان میدهد بسیاری از افراد از چتباتها برای فکر کردن درباره مشکلات، برنامهریزی آینده و بررسی باورها و احساسات خود استفاده میکنند. در این زمینه، چتباتها دیگر فقط ابزارهای اطلاعاتی نیستند. آنها به همراهان دیجیتال ما تبدیل شدهاند.وقتی ساری به چایل گفت از آموزش او تحت تأثیر قرار گرفته، یا الیزا به پییر گفت در مرگ با او متحد خواهد شد، اینها اعمالی از تأیید و توجه بودند. چون ما این تعاملات را بهصورت اجتماعی تجربه میکنیم، میتوانند واقعیت ما را همانند تعامل با انسان شکل دهند.
فقدان حفاظها در تعامل با هوش مصنوعی
اما چتباتها فقط شبیهسازی شده «جامعه» هستند آن هم بدون حفاظهای انسانی. آنها برای جذب تعامل طراحی شدهاند و واقعا جهان ما را به اشتراک نمیگذارند. وقتی باورها و داستانهای خود را تایپ میکنیم، چتبات آنها را بهعنوان حقیقت میپذیرد و براساس آن پاسخ میدهد.در گفتوگو با یک دوست، احتمال دارد او برداشت متفاوتی ارائه دهد اما چتباتها باورهای ما را بدون چالش میپذیرند و سپس ممکن است اشتباهات بیشتری به آن اضافه کند. موارد چایل، تورس و پییر نشان میدهند وقتی تأیید الگوریتمی بهعنوان تأیید اجتماعی واقعی تجربه شود، چه خطراتی وجود دارد.
تلاشها برای کاهش خطرات
OpenAI در آگوست نسخه تازه چتجیپیتی را منتشر کرد. این مدل بهطور مشخص به گونهای طراحی شده بود تا کمتر چاپلوس باشد. هدف این بود که تأیید همیشگی باورهای کاربران کاهش یابد اما کاربران مدل جدید را «سرد» توصیف کردند و OpenAI دوباره مدل را «گرم و دوستانه» کرده است! این نشان میدهد نمیتوان روی شرکتهای فناوری برای اولویت دادن به سلامت کاربران بیش از درآمدشان حساب کرد.درعین حال، حذف کامل چاپلوسی دشوار است. اگر چتبات هر چیزی راکه میگوییم به چالش بکشند، استفاده ازآن غیرقابل تحمل خواهدبود.بنابراین کمی همدلی وتأییدضروری است.
بازگشت به جهان واقعی
شاید بهتر باشد پرسش را تغییر دهیم.چرامردم به هوش مصنوعی روی میآورند؟افراد مبتلا به روانپریشی اغلب جنبههایی از جهان را تجربه میکنند که تنها خودشان میتوانند درک کنند و این احساس انزوا را تقویت میکند. چتباتها این شکاف را پر و باهرواقعیتی که ارائه میدهیم تعامل میکنند.به جای تمرکز برکامل کردن فناوری، ممکن است بهتر باشد بر ساختن جهانهای اجتماعی واقعی تمرکز کنیم که این انزوا را کاهش دهد. اضطراب اقلیمی پییر، تمرکز چایل روی بیعدالتیهای تاریخی و بحران عاطفی تورس نیاز به جوامعی داشتند که بتوانند از آنها حمایت کنند.تاسفآور است اگر افزایش توهمات ناشی از چتباتها ما را مجبور کند به سوی تعامل انسانی واقعی بازگردیم اما شاید این مسیر همان راهحل واقعی باشد.