این نه منم!

مجازیستما در دنیایی زندگی می‌کنیم که به کمک نرم‌افزارها و فناوری می‌توان کارها و فعالیت‌های بسیاری انجام داد. فعالیت‌هایی فراتر از آنچه قابل تصور یا حتی قابل فکر کردن باشد.

یا بگذارید به ساده‌ترین شکل ممکن بنویسیم که اگر در گذشته تنها ممکن بود عکس‌ها و فیلم‌ها توسط نرم‌افزارهای مختلف گرافیکی دستکاری شود و چیزی خلاف واقعیت را به بیننده نشان دهد، امروز با فناوری‌های عجیب‌تری روبه‌رو هستیم که می‌تواند چهره و صدای شما را به طرز شگفت‌آوری تقلید و در قالب ویدئوهای غیرواقعی منتشر کند. اتفاقی که گاه ممکن است به جای «عجیب» بودن، «خطرناک» باشد.

هیچ‌چیز واقعی نیست

تصور کنید در حال دیدن کلیپی هستید که در آن دو سیاستمدار روبه‌روی یکدیگر نشسته‌اند و در حال مذاکره‌اند.

همه چیز طبیعی است؛ دیالوگ‌ها، محیط و صدای افراد. هرچیزی که می‌بینید واقعی است و تصمیم می‌گیرید آن را با یکی از دوستان خود به اشتراک بگذارید؛ دوست شما آن را برای افراد دیگری می‌فرستد و این چرخه ادامه پیدا می‌کند و همین‌طور ویدئو دست‌به‌دست می‌شود.

پس از مدتی متوجه می‌شوید هر دو فرد حاضر در جلسه در واقعیت آنجا نبوده‌اند و صورت آنها روی صورت فرد دیگری گذاشته شده است و این ویدئو اصلا واقعی نیست ولی بارها در میان مردم «به اشتباه» چرخیده است.

دیپ‌ فیک چیست؟

تاکنون بارها و در گزارش‌های متعدد از هوش مصنوعی نوشته بودیم. فناوری‌ای که هم می‌تواند در جهت رفاه حال انسان تنهای امروز مفید باشد و هم مضراتی غیرقابل‌جبران به بشر برساند و این اتفاق تنها در گرو این است که چگونه از آن استفاده شود. اما در خصوص گزارش امروز که یکی از محصولات هوش مصنوعی است باید گفت: دیپ‌ فیک نام یک تکنیک نرم‌افزاری مبتنی بر هوش مصنوعی است که در محتوای صوتی و تصویری دست می‌برد، آن را به شکل دلخواه تغییر می‌دهد و در نهایت محتوایی به دست می‌آید که کاملا متفاوت از حقیقت است.

دیپ‌ فیک، ترکیب دو کلمه یادگیری عمیق (Deep Leaning) و جعل (Fake) است که به‌خوبی عملکرد این تکنیک را تشریح می‌کند.

در واقع این فناوری برای ایجاد محتوای صوتی و تصویری متقاعدکننده و درعین‌حال غیرواقعی ساخته شده که به‌سرعت در حال رشد و بهبود است و انتظار می‌رود روزبه‌روز استفاده از آن گسترده‌تر شود.

چرا خطرناک است؟

شاید بگویید تا پیش از این هم اپلیکیشن‌ها و نرم‌افزارهایی بودند که به طرق مختلف قادر به چنین کاری بودند.

نمونه ملموس آن فتوشاپ است که سال‌ها کاری مشابه را از طریق جعل کردن تصاویر انجام می‌داد؛ اما چیزی که اکنون با آن روبه‌رو هستیم، مبحثی کاملا متفاوت و نگران‌کننده‌تر از جعل عکس یک نفر در فتوشاپ است.

چرا از عبارت نگران‌کننده استفاده می‌کنیم؟ چون در دیپ‌ فیک تلفیق تصاویر و فیلم‌های موجود با منبع مورد نظر ویدئویی به نحوی صورت می‌گیرد که انگار ترکیب هر دو تصویر یا هر دو فیلم یکی است و در یک صحنه رخ می‌دهد.

این ترکیب پیچیده به‌عنوان مثال می‌تواند فرد یا افراد مختلف را به گفتن جملات و یا در حال انجام کارهایی نشان دهد که هرگز در واقعیت رخ نداده‌اند.

فیلم‌های تولیدشده از تکنیک دیپ‌فیک می‌توانند به ‌این شکل ایجاد شوند که حضور شخصی را در فیلم‌ها و مکان‌هایی نمایش دهند و این در حالی است که روح فرد هم از این اتفاق خبر ندارد!

قربانیان چه کسانی هستند؟

فناوری دیپ‌ فیک یا همان جعل عمیق در طول ظهور و پیدایش خود، نه‌تنها جامعه بازیگران و سلبریتی‌ها را هدف گرفته بلکه به حریم چهره‌های بزرگ سیاستمدار نیز تجاوز کرده است.

یعنی از آنجا که این فناوری بر مبنای هوش مصنوعی است و نیازی به دخالت مستقیم انسان ندارد، هر فردی می‌تواند از طریق دیپ‌ فیک، ویدئوی جعلی و درعین‌حال واقعگرایانه تولید کند و این مساله نشان می‌دهد هر فردی می‌تواند قربانی آن باشد و نه‌فقط سیاستمداران و چهره‌های معروف.

در نتیجه متاسفانه افراد با اهداف خصمانه می‌توانند فیلم‌های غیراخلاقی تهیه و تولید کنند و زندگی شخصی را به‌راحتی به خطر بیندازند.

گفتنی است این فناوری سبب کسب درآمد نیز شده است و افراد بسیاری در انجمن‌های اینترنتی مختلفی وجود دارند که حاضرند برای ساخت یک ویدئوی دیپ‌فیک و غیراخلاقی از فرد موردنظرشان پول زیادی پرداخت کنند.

نمونه عینی که به‌خاطر دارید

عینی‌ترین نمونه دیپ‌ فیک را می‌توان ویدئویی از باراک اوباما، رئیس‌جمهوری اسبق آمریکا دانست که در آن ویدئو اوباما، روبه دوربین می‌نشیند و جانشین خود یعنی دونالد ترامپ را فردی کاملا غیرمنطقی و حقیر خطاب می‌کند. ویدئویی که به سرعت فراگیر شد و واکنش‌های بسیاری در سراسر جهان داشت. اما او اوباما نبود.

دیپ‌ فیک بود و پس از این گفت‌وگو و واکنش‌های آن شخص اوباما از پیشرفت دیپ‌ فیک ابراز نگرانی کرد و گفت: «افراد قادر به تکثیر من و تغییر سخن‌هایم هستند و این کار به‌اندازه‌ای دقیق انجام می‌شود که گویی نسخه تکثیر شده، به‌واقع من هستم و آن صحبت‌ها از زبان من گفته می‌شود؛ درحالی‌که همه‌چیز کاملا ساختگی است. اگر به مرحله‌ای برسیم که نتوان مرز بین حقیقت و دروغ را تشخیص داد، پایه‌های دموکراسی ما که برمبنای حقیقت بنا شده به لرزه خواهد افتاد.»

همیشه هم بد نیست

بسیاری از دیپ‌ فیک‌ها سرگرم‌کننده و نیز مفید هستند. دیپ‌فیک‌های صدا می‌توانند وقتی شخصی از دست رفته، صدای او را برگرداند.

فیلم‌های دیپ‌ فیک می‌توانند گالری‌ها و موزه‌ها را زنده کنند. موزه «سالوادور دالی» دیپ‌فیکی از این نقاش سوررئالیست دارد که خود را معرفی و حتی با بازدیدکنندگان عکس سلفی هم می‌گیرد.

در صنعت سرگرمی می‌توان از این فناوری در بهبود دوبله فیلم‌ها یا حتی زنده کردن بازیگران از دنیا رفته استفاده کرد.

برای مثال جیمز دین فقید قرار است در فیلمی به نام Finding Jack که مربوط به جنگ ویتنام است، بازی کند. با این حال اما گویا استفاده منفی از آن در جهان امروز بیشتر شده است.

جنگ‌ های تحریف شده

۱- در گابن، پس از انتشار ویدئویی ظاهرا جعلی از رهبر آنها علی بونگو که اعلام می‌کرد رئیس‌جمهوری آنها دیگر از سلامت کافی برای اداره کشور برخوردار نیست، ارتش کودتایی نافرجام را آغاز کرد.

۲- در بلژیک، یک گروه سیاسی دیپ‌فیکی از نخست‌وزیر بلژیک پخش کرد که در آن او طی یک سخنرانی شیوع ویروس کرونا را به آسیب‌های زیست‌محیطی ربط داد و خواستار اقدام سریع در مورد تغییرات اقلیمی شد.

مردم نگران شده‌اند

چرا نیازمند قوانین جدید در فضای مجازی هستیم؟ چون مردم بابت دیپ‌فیک‌ها و اپلیکیشن‌هایی با محوریت‌هایی این‌چنینی نگران شده‌اند.

برای مثال اپلیکیشن چینی Zao که چندی پیش به‌عنوان یکی از پرسروصداترین اپ‌ها شناخته می‌شد، قادر است در کسری از ثانیه با دریافت چند عکس از کاربر، چهره او را به سلبریتی مورد علاقه‌اش تبدیل کند اما پس از چندی کاربران بسیاری به سرعت موجی از نارضایتی خود را درخصوص نقض حریم خصوصی اعلام کردند و حال این نرم‌افزار، سیاست‌های خود را بعد از واکنش جدی و بازخوردهایی که از سوی کاربران دریافت کرده، تغییر داده است! ماجرایی که رویترز گزارش مفصلی از آن ارائه داد و بارها به این اپلیکیشن بابت نقض حریم خصوصی کاربرانش تاخت. آخرین نمونه آن اپلیکیشن گرادینت است که در حال حاضر همه‌گیر شده و به‌شدت امنیت و حفظ حریم خصوصی استفاده‌کنندگان از آن زیر سوال است.

برای مقابله چه کنیم؟

شرکت‌های فناوری در حال کار کردن روی سیستم‌های ردیابی هستند که هر زمان که ویدئوی تقلبی ظاهر شد آن را تشخیص دهند.

روش دیگر تمرکز روی منشأ و منبع اصلی رسانه است. واترمارک‌های دیجیتالی هم بدون ایراد نیستند اما یک منبع آنلاین بلاکچین می‌تواند سابقه‌ای از نسخه اصلی فیلم‌ها در خود داشته باشد تا بتوان به منبع و منشأ آنها برای تشخیص نسخه تقلبی دسترسی داشت.

بن لام، مدیرعامل یکی از شرکت‌های هوش مصنوعی در این‌باره گفت:«هیچ راه‌حل مشخصی فعلا برای حل این تهدید رو به رشد وجود ندارد. با این حال تعداد و راه‌حل ایده‌های جدید در دنیای هوش مصنوعی برای مقابله با این تهدید در حال ظهور است اما هنوز راه‌حل اول انسان‌ها هستند!»

چالش‌های پیش‌رو

۱) دیپ‌فیک می‌تواند واقعیات جامعه را تحریف کرده و اطلاعات نادرست و غیرواقعی به افراد جامعه ارائه کند.

۲) حریم خصوصی افراد به‌راحتی مورد هدف قرار گرفته و دموکراسی و امنیت ملی یک کشور نیز به خطر می‌افتد.

۳) در آینده‌ای نه‌چندان دور و با گسترش فناوری دیپ‌ فیک، عملا تشخیص بین مرز حقیقت و دروغ غیرممکن خواهد شد.

۴) با گسترش دیپ‌ فیک، میزان اعتماد به رسانه‌ها کمتر می‌شود چون مرز واقعیت و تحریف باریک‌تر از مو می‌شود.

۵) دیپ‌فیک غیرقانونی نیست اما تولیدکنندگان و توزیع‌کنندگان می‌توانند به‌راحتی با آن از قانون سرپیچی کنند. یک دیپ‌فیک بسته به محتوایی که دارد، می‌تواند کپی‌رایت یا قانون حفاظت از محتوا را نقض کند و اگر قربانی را مورد تمسخر قرار دهد، می‌تواند افتراآمیز باشد.

/یگانه عصاری- روزنامه جام جم/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

جایزه همراه اول