دانشیار حقوق بینالملل دانشگاه تهران در یادداشتی اختصاصی برای جام جم آنلاین مطرح کرد
به گزارش جام جم آنلاین به نقل از باشگاه خبرنگاران جوان، دیپ فیک اصطلاحی است که طی سالهای اخیر بسیار در فضای مجازی مورد استفاده قرار گرفته است. دیپ فیک در واقع نام فرآیندی است که طی آن یک یا چند کاربر محتوایی غیر واقعی را در فضای مجازی منتشر میکنند تا کاربران را گمراه کنند و ویدئو یا دیگر محتواهای درست شده را در قالب مدرکی اصل به افراد ارائه دهند.
در حالی که فناوری دیپ فیک پیش از این تنها در دستان سازمانهای اطلاعاتی مانند CIA بود، امروزه هر کاربری میتواند با دانلود برنامههای تولید ویدئوی دیپ فیک به این فناوری دست پیدا کند و از آن برای اهداف مختلف از جمله اهداف غیراخلاقی استفاده کند. با این وجود، یک ویدئوی دیپ فیک میتواند اشخاصی را که آگاهی کاملی از آن ندارند گمراه کند و یا در مواردی زندگی آن فرد را از بین ببرد. تا به امروز ویدئوهای بسیاری ساخته و منتشر شده است که ذهن کاربران را مشغول خود کردهاند. به عنوان مثال کاربران با استفاده از فناوری دیپ فیک ویدئویی ساخته بودند که در آن مارک زاکربرگ، مدیرعامل فیسبوک، ادعا میکرد بر روی اطلاعات خصوصی میلیاردها انسان کنترل کامل دارد.
این ویدئوی تقلبی سر و صدای زیادی را به دنبال داشت و تا زمان کشف نحوه ساخت آن بسیاری از کاربران تصور داشتند دادههای آنها توسط فیسبوک کنترل میشود. بر همین اساس پیشنهاد میشود که کاربران با دقت اطلاعات مربوط به دیپ فیک را مطالعه کنند تا از خطرات و سوءاستفادههای ناشی از این فناوری در امان باشند.
خیر. دیپ فیک یک فناوری است که میتوان با استفاده از آن تصاویری طبیعی را بدون وجود هیچ عکس دیگری تولید کرد. برای مثال مدتی پیش محققان متوجه شدند یکی از خبرنگاران بلومبرگ که با نام میسی کینزلی در شبکههای اجتماعی لینکدین و توئیتر نیز حساب کاربری داشت کاملاً شخصیتی غیر واقعی و ساخته شده توسط فناوری دیپ فیک بوده است. یک فرد دیگر در این شبکههای اجتماعی با نام کیتی جنز حضور داشت که بعدها مشخص شد با استفاده از فناوری دیپ فیک برای به دام انداختن جاسوسهای خارجی ساخته شده است. در ادامه باید گفت فایلهای صوتی نیز امکان ساخته شدن توسط دیپ فیک را دارند.
به عنوان مثال چند ماه پیش یکی از رؤسای انگلیسی یک شرکت آلمانی ۲۰۰ هزار یورو را به حساب بانکی فردی در مجارستان فرستاد چرا که کلاهبردار مورد نظر توانسته بود صدای مدیرعامل شرکت آلمانی را توسط فناوری دیپ فیک بازسازی کند. با وجود آن که مسئولان شرکت مورد نظر و همچنین مدیرعامل این مجموعه اظهار داشتند تماس صوتی صورت گرفته تقلبی است اما هیچ مدرکی برای اثبات چنین مسئلهای در دسترس قرار ندارد. گفتنی است؛ چنین اتفاقاتی طی سالهای گذشته به مراتب رخ داده و بسیاری از آنها نیز از طریق برنامه واتساپ صورت گرفتهاند.
محققان بسیاری طی سالهای گذشته سعی داشتند با استفاده از فناوریهای مختلف و نرم افزارهای ساخت ویدئو امکان تولید محتوای غیر واقعی را مورد بررسی قرار دهند. اما فناوری دیپ فیک به خودی خود در سال ۲۰۱۷ پا به جهان گشود. اولین بار از این فناوری در شبکه اجتماعی ردیت رونمایی شد؛ زمانی که فردی با نام کاربری دیپ فیک ویدئویی تقلبی را در این برنامه به اشتراک گذاشت. در این ویدئوها صورت بازیگران معروف با یکدیگر جابهجا شده بود و این مسئله توجه بسیاری را به خود جلب کرد.
تعویض صورت دو فرد در ویدئو به صورت دستی کار بسیار دشواری است چرا که فرد نیاز دارد ابتدا از صورت افراد در تمامی فریمهای ویدئو عکس جداگانه بگیرد و سپس مراحل دیگر را انجام دهد، اما با استفاده از دیپ فیک این اتفاق به راحتی صورت میگیرد. در این فرآیند هوش مصنوعی هزاران تصویر را از صورت فرد مورد نظر ثبت میکند که با عنوان رمزگذار شناخته میشود. این رمزگذار شباهتهای بین صورت دو فرد را تشخیص میدهد و با توجه به آنها تصاویری دریافت شده را جایگذاری میکند.
در مرحله دوم فرآیندی به نام رمزگشا شروع میشود که با توجه به تفاوتهای هر صورت سعی میکند تعویض چهرهها را طبیعیتر جلوه دهد. در واقع تصاویر رمزگذاری شده فرد الف به فرآیند رمزگشایی فرد ب ارسال میشود تا تغییر تصاویر صورت گیرد. این فرآیند برای تمامی فریمهای یک ویدئو صورت میگیرد که ممکن است از هزاران تا میلیونها نمونه باشد.
در نوع دیگر ساخت ویدئوهای دیپ فیک دو هوش مصنوعی با الگوریتمهای مختلف با هم همکاری میکنند تا تصویرها ساخته شوند. طی این فرآیند یک ژنراتور و یک تفکیک کننده وجود دارد. همانطور که از نام این دو پیدا است، ژنراتور وظیفه تولید تصاویر را دارد و تفکیک کننده تشخیص میدهد که کدام عکسها برای استفاده مناسب هستند. تصاویر تولید شده در مرحله اول کاملا خام هستند اما با گذر زمان کاربر شاهد تشکیل یک تصویر و یا ویدئوی فوق حرفهای خواهد بود.
تمامی افراد از کاربران ساده تا محققان دنیای فناوری و سازندگان فیلمهای سینمایی از چنین فناوری نوینی استفاده میکنند. همچنین گفته میشود دولتهای کشورهای بسیاری نیز برای برخی اقدامات خود این فناوری را مورد استفاده قرار میدهند. گفتنی است؛ بیشترین میزان استفاده از این فناوری متعلق به کلاهبرداران و سوءاستفادهگران اینترنتی است.
از زمان پیدایش فناوری دیپ فیک نگرانی بسیاری از کاربران فضای مجازی افزایش یافته است. این نگرانی به قدری است که نماینده حزب جمهوریخواه آمریکا در سال ۲۰۱۶ قدرت فناوری دیپ فیک را با سلاح هستهای مقایسه کرد. وی طی صحبتهای خود گفت: "اگر کسی میخواست در گذشته آمریکا را تهدید کند تنها به چند سلاح هستهای و موشک نیاز داشت. امروزه تنها کافی است که کشوری به سیستم اینترنتی آمریکا دسترسی پیدا کند. تنها چیزی که برای آسیب زدن به ما نیاز میشود امکان تولید محتواهای غیر واقعی و ویدئوهای تقلبی بسیار واقعگرایانه است".
با وجود این سخنان تیم هاونگ، مدیر اجرایی تحقیقات هوش مصنوعی دولت آمریکا سرسختانه مخالفت خود را نشان داده و در واکنش به صحبتهای این نماینده سیاسی گفت که بعید میداند این فناوری به قدرتمندی بمب اتم باشد. وی اظهار داشت: "من فکر میکنم از این فناوری استفادههای غیر اخلاقی بسیاری میشود و معتقد هستم این رفتارها نگرانی اشخاص را افزایش میدهد، با این وجود شک دارم فناوری دیپ فیک چندان تغییر عظیمی در دنیا به وجود بیاورد و آسیبهای گستردهای را وارد کند".
در مجموع باید گفت دیپ فیک نمیتواند در مقیاس بالا آسیبی را به یک کشور وارد کند، اما افراد سوءاستفادهگر میتوانند از این فناوری برای باجگیری و یا آسیب زدن به کاربران عادی استفاده کنند.
فناوری شلو فیک که از قدرت کمتری نسبت به دیپ فیک برخوردار است نیز میتواند آسیبهای مشابهای را به جامعه برساند. برای مثال مدتی پیش طی یکی از جلسات سخنرانی دونالد ترامپ، رئیس جمهور آمریکا، جیم آکستا که از طرف شبکه CNN فرستاده شد سوالاتی پرسید و ترامپ را به چالش کشید.
به دنبال این عمل یکی از کارمندان کاخ سفید تصمیم گرفت میکروفن را از دست او بکشد و به صحبتهای او پایان دهد. در حالی که ویدئوی اصلی این اتفاق در فضای مجازی وجود دارد اما نمونهای دستکاری شده از آن نیز منتشر شده که نشان میدهد خبرنگار مذکور به کارمند کاخ سفید حمله میکند. انتشار چنین ویدئویی باعث شد ترس کاربران از فناوری دیپ فیک و شلو فیک بیشتر شود چرا که با وجود چنین ابزارهایی تمامی ویدئوها به سادهترین شکل ممکن قابل دستکاری هستند.
میتوان گفت تشخیص ویدئوهای دیپ فیک که با کیفیت بالا طراحی شدهاند بسیار دشوار است. از طرف دیگر ویدئوهای دیپ فیک که توسط کاربران و با برنامههای اینترنتی ساخته میشوند به راحتی قابل تشخیص هستند چرا که زمان زیادی صرف ساخت آنها نمیشوند. ویدئوهایی که توسط فرآیند GAN، دومین مدل ساخت دیپ فیکها، ساخته میشوند معمولا از کیفیت بالاتری برخوردار هستند و بیشتر مواقع کاربران برای تشخیص آنها نیاز به یک هوش مصنوعی دیگر دارند.
در حال حاضر شرکتهای تحقیقاتی بسیاری سعی دارند روشهای قابل اعتمادتری را برای تشخیص ویدئوهای دیپ فیک قوی پیدا کنند. با این حال از آن جایی که فرآیند GAN از دو هوش مصنوعی برای تولید ویدئوها بهره میبرد امکان تشخیص ویدئوهای آنها همواره در حال سختتر شدن است. همانطور که بسیاری از کاربران مطلع هستند، هوشهای مصنوعی میتوانند مسائل جدید را یاد بگیرند و ایرادات خود را در طی زمان برطرف کنند.
در واقع اگر یک فرد تمامی اطلاعات مربوط به تشخیص ویدئوهای دیپ فیک را در اختیار هوشهای مصنوعی GAN قرار دهد دیگر هیچ راهی برای تشخیص صحت آنها وجود نخواهد داشت. چنین مسئلهای باعث از بین رفتن اعتماد به محتوای قرار گرفته شده در اینترنت و رسانهها میشود. با تمامی این مسائل محققان همچنان باور دارند راهی برای تشخیص صحت ویدئوها پیدا خواهد شد.
به دنبال این مسائل کاربران فضای مجازی باید مراقب تصاویری که در شبکههای اجتماعی قرار میدهند باشند. همانطور که مدتی پیش رباتهایی در تلگرام برای ساخت محتوای غیر اخلاقی توسط تصویر کاربران ساخته شده بود و افراد زیادی مورد سوءاستفاده قرار گرفتند، هر شخصی که افراد ناشناس را در صفحات خود راه میدهد ممکن است در معرض چنین خطرهایی قرار گیرد.
دانشیار حقوق بینالملل دانشگاه تهران در یادداشتی اختصاصی برای جام جم آنلاین مطرح کرد
یک پژوهشگر روابط بینالملل در گفتگو با جام جم آنلاین مطرح کرد
در یادداشتی اختصاصی برای جام جم آنلاین مطرح شد
یک کارشناس روابط بینالملل در گفتگو با جامجمآنلاین مطرح کرد