دیپ‌فیک (Deep Fake) چیست؟

کاربرد دیپ‌فیک چیست؟

در چند دهۀ گذشته، هوش مصنوعی (AI) به‌سرعت در حال توسعه بوده است. این فناوری در زمینه‌های مختلف برای اهداف بی‌شماری کاربرد دارد و کیفیت و کارایی بسیاری از صنایع را بهبود می‌بخشد. اما تأثیر همۀ محصولات هوش مصنوعی مثبت نیست و برخی از آن‌ها می‌توانند توسط مجرمان مورد سوء‌استفاده قرار ‌گیرند.

به‌تازگی فناوری دیپ‌فیک (Deepfake) در سرخط خبرها قرار گرفته است. در دیپ‌فیک‌ها، هوش مصنوعی به‌گونه‌ای برنامه‌ریزی می‌شود تا چهرۀ یک فرد را با چهره‌ای دیگر، در تصویر یا ویدئو جایگزین کند. قربانیان چنین اقداماتی اغلب افراد مشهور، سلبریتی‌ها و سیاست‌مداران هستند.

در این مطلب از وی‌پدیا، می‌خواهیم به فناوری دیپ‌فیک و روش‌های تشخیص آن بپردازیم.

دیپ‌فیک چیست؟

دیپ‌فیک (Deepfake) (همچنین با املای Deep Fake) نوعی هوش مصنوعی است که برای تولید محتوای جعلی و متقاعدکننده و فریب‌های صوتی و تصویری استفاده می‌شود. این اصطلاح که هم فناوری و هم محتوای جعلی ناشی از آن را توصیف می‌کند، ترکیبی از دو کلمۀ Deep (عمیق) و Fake (جعلی) است. Deep در اینجا به فناوری هوش مصنوعی اشاره دارد که به‌عنوان یادگیری عمیق (Deep Learning) شناخته می‌شود. جعل در دیپ‌فیک، به‌شکلِ تغییر یا ترکیب چهره‌ها، گفتار و بازی با احساسات اعمال می‌شود. درواقع، دیپ‌فیک تقلید دیجیتالیِ عملی است که توسط شخص انجام نشده است.

دیپ‌فیک‌ها رویدادها، اظهارات یا اقداماتی را به تصویر می‌کشند که هرگز واقعاً اتفاق نیفتاده‌اند. نتایج می‌تواند کاملاً قانع‌کننده باشد: تقلبی عمیق که با سایر اشکال اطلاعات نادرست متفاوت است؛ زیرا تشخیص نادرست‌بودن آن بسیار دشوار است. اولین گام‌ها برای دستیابی به این فناوری در دهۀ ۹۰ میلادی توسط مؤسسات دانشگاهی برداشته شد و بعدها از سوی طیف گسترده‌تری از افراد مورد توجه و استفاده قرار گرفت. اگرچه تولید برنامه‌های دیپ‌فیک، جریان اصلی محسوب نمی‌شود، باوجوداین توانسته در فضای رسانه‌ای سروصدای زیادی به پا کند.

دیپ‌فیک چگونه عمل می‌کند؟

مفهوم اصلی پشت فناوری دیپ‌فیک، تغییر چهره است. کاربران اسنپ‌چت با عملکردهای تغییر چهره یا فیلترهایی که تغییراتی را در چهره اعمال می‌کنند آشنا هستند. دیپ‌فیک هم تا حدی شبیه اسنپ‌چت است، اما بسیار واقعی‌تر.

روش‌های مختلفی برای ساختن دیپ‌فیک وجود دارد، اما رایج‌ترین روش‌ها استفاده از شبکه‌های عصبی عمیق شامل رمزنگارهای خودکار است که از تکنیک تغییر چهره استفاده می‌کنند. شما ابتدا به یک ویدئوی هدف به‌عنوان پایۀ دیپ‌فیک و سپس به مجموعه‌ای از کلیپ‌های ویدئویی از شخصی که می‌خواهید هدف قرار دهید نیاز دارید.

ویدئوها می‌توانند کاملاً نامرتبط باشند. برای مثال، ویدئوی هدف ممکن است کلیپی از یک فیلم هالیوودی باشد، و ویدئوهای شخصی که می‌خواهید در فیلم درج کنید ممکن است کلیپ‌های تصادفی دانلودشده از یوتیوب باشند. رمزنگار خودکار یک برنامۀ هوش مصنوعی یادگیری عمیق است که وظیفه دارد کلیپ‌های ویدئویی را بررسی کند تا بفهمد شخص از زوایای مختلف و در شرایط محیطی گوناگون چگونه به نظر می‌رسد و سپس با یافتن ویژگی‌های مشترک، آن شخص را روی فردِ حاضر در ویدئوی موردنظر نگاشت می‌کند.

بدین ترتیب، می‌توان ویدئوهای جعلی را با استفاده از یک تکنیک یادگیری ماشینی به نام «شبکۀ متخاصم مولد» (Generative Adversarial Network) یا GAN تولید کرد. برای مثال، یک GAN می‌تواند هزاران عکس نیکلاس کیج را وارسی و درنهایت یک تصویر جدید تولید کند، بدون اینکه کپی عین به عین هیچ‌یک از آن عکس‌ها باشد.

محتوای دیپ‌فیک با استفاده از دو الگوریتم هوش مصنوعی رقیب ساخته می‌شود که یکی را مولد (Generator) و دیگری را ممیز (Discriminator) می‌نامند. الگوریتم مولد، که محتوای چندرسانه‌ای جعلی را می‌سازد، از الگوریتم ممیز می‌خواهد که واقعی یا مصنوعی بودن محتوا را تعیین کند. الگوریتم مولد و ممیز با هم شبکۀ متخاصم مولد (GAN) را تشکیل می‌دهند. هر بار که ممیز محتوایی را به‌عنوان محتوای جعلی شناسایی می‌کند، اطلاعات ارزشمندی درمورد چگونگی بهبود دیپ‌فیک بعدی در اختیار سازنده قرار می‌دهد.

GAN یک فناوری چندمنظوره است و می‌توان از آن برای تولید صدای جدید از صدای موجود یا متن جدید از متن موجود نیز استفاده کرد. فناوری مورد استفاده برای ایجاد دیپ‌فیک‌ها طوری برنامه‌ریزی شده که چهره‌ها را براساس نقاط برجستۀ آن‌ها (گوشۀ چشم و دهان، سوراخ‌های بینی، خط فک و…) ترسیم می‌کند.

آیا دیپ‌فیک محدود به ویدئو استآیا دیپ‌فیک محدود به ویدئو است؟

دیپ‌فیک فقط به ویدئو محدود نمی‌شود. صدای دیپ‌فیک، زمینه‌ای است که به‌سرعت در حال رشد است و تعداد زیادی برنامۀ کاربردی نیز دارد. اکنون می‌توان با استفاده از الگوریتم‌های یادگیری عمیق، با صرف چند ساعت (یا در برخی موارد، دقیقه) صدای شخصی را شبیه‌سازی و دیپ‌فیک‌های صدا ایجاد کرد.

صدای دیپ‌فیک، در قالب جایگزینی صدا دارای کاربردهای پزشکی است و همچنین در طراحی بازی‌های رایانه‌ای کاربرد دارد. اکنون برنامه‌نویسان به شخصیت‌های درون بازی اجازه می‌دهند به‌جای تکیه بر مجموعۀ محدودی از اسکریپت‌هایی که قبل از شروع بازی ضبط شده‌اند، هر چیزی را در زمان واقعی بیان کنند.

نرم‌افزارهای تولید دیپ‌فیک

چندین برنامه و نرم‌افزار وجود دارد که تولید دیپ‌فیک را حتی برای مبتدیان آسان کرده‌اند؛ ازجمله برنامۀ چینی Zao، DeepFace Lab، FaceApp (که یک برنامۀ ویرایش عکس با تکنیک‌های هوش مصنوعی داخلی است)، Face Swap و… .

تعداد زیادی از نرم‌افزارهای دیپ‌فیک را می‌توان در GitHub، یک جامعۀ منبع‌باز توسعۀ نرم‌افزار، یافت. برخی از این برنامه‌ها صرفاً برای مقاصد سرگرمی استفاده می‌شوند -به همین دلیل است که تولید دیپ‌فیک غیرقانونی نیست- در‌حالی‌که برخی دیگر به احتمال زیاد به‌طور مخرب استفاده می‌شوند.

از دیپ‌فیک‌ها چه استفاده‌ای می‌شود؟

استفاده از دیپ‌فیک‌ها در رسانه‌های جریان اصلی، ازجمله فیلم‌های پرفروش و پخش‌های خبری، در حال افزایش است. بهترین نمونه‌های دیپ‌فیک نه‌تنها مردم را سرگرم یا وحشت‌زده می‌کنند، بلکه راه‌های جدیدی را برای متحول‌کردن فرایند خلاقیت هنرمندان و فیلم‌سازان نشان می‌دهند.

یک نمونۀ معروف، مربوط به زمانی است که یک مؤسسۀ خیریۀ سلامت در بریتانیا از یک دیپ‌فیک برای ارسال پیام ضد مالاریا توسط دیوید بکهام استفاده کرد. این پیام به ۹ زبان زندۀ دنیا ارائه شد. با‌این‌حال، قابل ‌توجه‌ترین و در‌عین‌حال خطرناک‌ترین موارد استفاده از دیپ‌فیک‌ها، مربوط به زمانی است که افراد از این فناوری در راستای اهداف پلید استفاده می‌کنند. دیپ‌فیک‌ها می‌توانند برای انتشار اطلاعات نادرست از طریق یک منبع قابل‌ اعتماد، برای مثال در تبلیغات انتخاباتی، استفاده شوند. همین وضعیت باعث شده تا تصور شود که این فناوری زندگی مدرن را مختل می‌کند.

البته، همۀ دیپ‌فیک‌ها مخرب نیستند. دیپ‌فیک‌ها کاربردهای بی‌ضرر و حتی مفیدی دارند؛ ازجمله استفاده در صنعت سینما و بازی. همچنین دیپ‌فیک‌های طنزی که با حضور بازیگرانی همچون نیکلاس کیج ساخته می‌‌شوند. مثلاً اگر نیکلاس کیج در فیلم «مهاجمان کشتی گمشده» (Raiders of the Lost Ark) ظاهر می‌شد، چگونه به نظر می‌رسید؟

گسترش دیپ‌فیک با فیلم‌های هرزه‌نگاری جعلی آغاز شد. بسیاری از سلبریتی‌های زن قربانی آن دسته از دیپ‌فیک‌ها شدند؛ ازجمله دیزی ریدلی، جنیفر لارنس، اما واتسون و گل گدوت. این موضوع، زنان مرتبط با رهبران کشورهای مختلف مانند میشل اوباما، ایوانکا ترامپ و کیت میدلتون را نیز تحت‌تأثیر قرار داد.

گروه بعدی از افرادی که تحت‌تأثیر دیپ‌فیک قرار می‌گیرند، سیاست‌مداران هستند. ویدئوهایی از توهین میشل اوباما به دونالد ترامپ منتشر شد. در ویدئویی دیگر، صحبت‌‌های نانسی پلوسی پردازش شد تا حضار باور کنند که او مست بوده است. در ویدئوی جعلی دیگر، دونالد ترامپ بلژیک را به دلیل عضویتش در توافقنامۀ آب‌وهوایی پاریس تمسخر می‌کند.

گفتنی است که برای دیپ‌فیک‌ها موارد استفادۀ قانونی نیز وجود دارد. شما می‌توانید برنامه‌های زیادی برای تغییر چهره در عکس‌ها و ویدئوها، در App Store و Play Market پیدا کنید. این عقیده وجود دارد که دیپ‌فیک آیندۀ تولید محتوا است. در ادامه، به ۷ استفادۀ اصلی دیپ‌فیک‌ها اشاره شده است:

از دیپ‌فیک‌ها چه استفاده‌ای می‌شود۱) باج‌گیری

دیپ‌فیک یک ابزار بسیار شوم در دست کسانی است که به دنبال باج‌گیری یا تحقیر دیگران هستند. جامعۀ ما، به‌خصوص نسل قدیمی‌تر، هنوز از وجود فناوری دیپ‌فیک آگاه نیست. بنابراین افراد می‌توانند با استفاده از دیپ‌فیک‌ها آبروی دیگران را دستمایه قرار دهند و از آن‌ها باج‌گیری کنند.

۲) سیاست

همان‌طور که قبلاً ذکر شد، سیاست‌مداران ازجمله کسانی هستند که اغلب سوژۀ ویدئوهای دیپ‌فیک قرار می‌گیرند. دیپ‌فیک‌ها می‌توانند به جایگاه یک نامزد انتخاباتی آسیب جدی وارد کنند.

در سال ۲۰۱۸، یک حزب سیاسی بلژیکی ویدئویی از سخنرانی دونالد ترامپ منتشر کرد و از بلژیک خواست تا از توافقنامۀ آب‌و‌هوایی پاریس خارج شود، در‌حالی‌که ترامپ هرگز آن سخنرانی را انجام نداده بود.

در سال ۲۰۱۹، هنرمندان رسانه‌ای فرانچسکا پانتا و هالسی بورگوند از MIT یک ویدئوی دروغین با بازی ریچارد نیکسون، رئیس‌جمهور سابق ایالات‌متحده، تولید کردند. نیکسون در این ویدئو از شکست برنامۀ آپولو ۱۱ خبر داد و گفت که هیچ‌یک از خدمۀ آپولو از ماه برنگشتند. این یک سخنرانی واقعی بود که برای چنین سناریویی آماده شده بود. آن‌ها به‌مدت شش ماه با گروهی از متخصصان مختلف روی این ویدئو کار کردند. هدف آن‌ها ساختن محتوایی بود که بیشترین شباهت را به واقعیت داشته باشد تا از طریق آن، پتانسیل فناوری دیپ‌فیک را نشان دهند.

۳) هنر

یکی از کاربردهای رایج دیپ‌فیک در هنر، صحبت‌کردن پرتره‌های معروف است. محققان روسی این کار را با مونالیزای داوینچی انجام دادند. موزۀ دالی در فلوریدا فیلم‌هایی از سالوادور دالی را از طریق فیلم‌های آرشیوی برای جذب بازدیدکنندگان بازسازی کرد و توانست جوایز متعددی را در حوزۀ خلاقیت رسانه‌ای و تبلیغات دریافت کند.

۴) بازیگری

در فیلم‌ها اغلب لازم است چهرۀ بازیگران را بسازیم یا تغییر دهیم. در فیلم Rogue One: A Star Wars Story از دیپ‌فیک برای بازسازی چهرۀ پرنسس لیا و گرند موف تارکین استفاده شد.

۵) فیلم‌ها

استودیوی تحقیقاتی دیزنی مشغول کار روی فناوری جلوه‌های بصری دیپ‌فیک است. این کار هزینه‌های زمانی و مالی صرف‌شده برای دستیابی به فرد موردنظر را به میزان قابل‌ توجهی کاهش می‌دهد. البته هنوز مشکلاتی وجود دارد و برای به‌دست‌آوردن یک نتیجۀ رضایت‌بخش با کیفیت بالا، به تلاش بیشتری نیاز است. این همان فناوری مورد استفاده در فیلم جنگ ستارگان است که در بالا ذکر شد.

۶) شبکه‌های اجتماعی

در‌حالی‌که برخی از شبکه‌های اجتماعی مانند توییتر و فیس‌بوک با به‌روزرسانی سیاست‌های خود، با دیپ‌فیک مبارزه می‌کنند و دیپ‌فیک را ممنوع کرده‌اند، برخی دیگر از شبکه‌های اجتماعی از آن استقبال می‌کنند. اسنپ‌چت از سال ۲۰۱۶ ویژگی‌های تغییر چهره را ارائه کرده است. تیک‌تاک نیز تکنیکی را به کار گرفته که به کاربرانش امکان می‌دهد چهره‌ها را در ویدئوها تغییر دهند.

۷) هویت آنلاین جعلی

کانال کرۀ جنوبی MBN برای جایگزینی مجری اخبار خود از دیپ‌فیک استفاده کرد. این فناوری برای اهداف مشابه اما با شخصیتی کاملاً تخیلی نیز استفاده شده است. یکی از این شخصیت‌ها الیور تیلور، دانشجوی دانشگاه بیرمنگام بود. پروفایل‌های او در شبکه‌های اجتماعی نشان می‌داد که او در یک خانوادۀ یهودی بزرگ شده و به‌طور فعال درگیر یهودستیزی بوده است و در همین راستا، توجه او به مازن مصری، استاد دانشگاه لندن، جلب شد. تیلور، مصری و همسرش را به همدردی با تروریست‌ها متهم کرد، اما درنهایت مشخص نشد چه کسی پشت این پروفایل بوده است؛ زیرا اطلاعات کافی دربارۀ آن کشف نشد. در سال ۲۰۱۷ گروهی از محققان و کارآفرینان، Synthesia را طراحی کردند: یک نرم‌افزار مبتنی بر هوش مصنوعی که قادر به ایجاد محتوای سمعی و بصری برای رسانه‌های مصنوعی است. این نرم‌ا‌فزار به مشتریان خود اجازه می‌دهد تا فیلم‌های واقع‌گرایانه با شخصیت‌های تخیلی بسازند.

همچنین، در اینجا می‌توانید ۱۴ نمونه دیپ‌فیک را ببینید که کاربران اینترنت را وحشت‌زده و سرگرم کرد. این نمونه‌های دیپ‌فیک که ساخته‌های اخیر و قدیمی را شامل می‌شوند، قدرت و امکانات این فناوری را نشان می‌دهند.

دیپ‌فیک‌ها چه پیامدهایی دارند؟

هرچند فناوری مورد استفاده برای ساختن دیپ‌فیک‌ها فناوری نسبتاً جدیدی است، اما به‌سرعت در حال پیشرفت است و بررسی واقعی‌بودن یا نبودن یک ویدئو روزبه‌روز دشوارتر می‌شود. تحولات در این نوع فناوری‌ها پیامدهای اجتماعی، اخلاقی و سیاسی آشکاری دارد. در حال حاضر مسائلی پیرامون منابع خبری و اعتبار روایت‌های آنلاین وجود دارد و دیپ‌فیک‌ها این امکان را دارند که مشکل اطلاعات نادرست آنلاین را تشدید کنند یا اعتبار و اعتماد به اخبار و اطلاعات را به‌طور کلی مختل و تضعیف کنند.

خطر اصلیِ اطلاعات نادرست و فناوری دیپ‌فیک، ایجاد بی‌اعتمادی یا بی‌تفاوتی در افراد نسبت به آنچه در اینترنت می‌بینیم یا می‌شنویم است. اگر همه‌چیز می‌تواند جعلی باشد، به این معنی است که دیگر هیچ‌چیز واقعی نیست؟ عکس‌ها، فیلم‌ها و فایل‌های صوتی همواره به آگاهی ما از گذشته کمک کرده‌اند و نحوۀ دیدن و دانستن چیزها را شکل داده‌اند. برخی از مردم در حال حاضر حقایق مربوط به رویدادهایی را که بدون شک رخ داده‌اند، مانند هولوکاست، فرود بر ماه و ۱۱ سپتامبر، با وجود اثبات ویدئویی آن‌ها، زیر سؤال می‌برند. اگر دیپ‌فیک‌ها مردم را به این باور برسانند که نمی‌شود به ویدئوها اعتماد کرد، مشکلات مربوط به اطلاعات نادرست و تئوری‌های توطئه بیشتر و عمیق‌تر خواهد شد.

بسیاری از کارشناسان بر این باورند که در آینده، با توسعۀ بیشتر فناوری، دیپ‌فیک‌ها بسیار پیچیده‌تر خواهند شد و ممکن است تهدیدهای جدی‌تری را برای مردم ایجاد کنند که بیشتر مربوط به مداخله در انتخابات، تنش‌های سیاسی و فعالیت‌های مجرمانه خواهد بود.

چگونه با استفاده از تفکر انتقادی، دیپ‌فیک‌ها را تشخیص دهیم؟

مانند همۀ انواع اطلاعات آنلاینی که با آن‌ها مواجه می‌شویم، مهم‌ترین کاری که می‌توانیم هنگام تصمیم‌گیری دربارۀ واقعی یا جعلی بودن ویدئوها یا تصاویر آنلاین انجام دهیم، استفاده از تفکر انتقادی است. برای استفاده از تفکر انتقادی می‌بایست از خود سؤالاتی کلیدی بپرسیم. این چند نکتۀ مفید از First Draft برای تأیید هرگونه اطلاعات آنلاین ازجمله دیپ‌فیک‌ها به شما کمک می‌کند:

  • منشأ: چه کسی و چرا این ویدئو را به اشتراک گذاشته است؟
  • منبع: منبع اصلی این ویدئو چه کسی یا کجاست؟
  • تاریخ: این ویدئو چه زمانی ایجاد شده است؟
  • مکان: حساب کاربری در کجا ساخته شده؟ سایت در کجا ایجاد شده؟ این محتوا در کجا تولید شده است؟
  • انگیزه: چرا این ویدئو تولید شده است؟ آیا ویدئو اهداف و مقاصد سوء فرد دیگری را پیش می‌برد؟ چه کسی از این ویدئو سود می‌برد؟
  • انتظارات: آیا فرد حاضر در ویدئو چیزی را می‌گوید که هرگز انتظار نمی‌رود بگوید؟

چگونه با استفاده از فناوری، دیپ‌فیک‌ها را تشخیص دهیم؟

فناوری‌های تشخیص دیپ‌فیک‌ها نیز با استفاده از الگوریتم‌هایی مشابه الگوریتم‌های تولید دیپ‌فیک‌ها ساخته شده‌اند. آن‌ها علائمی را تشخیص می‌دهند که در عکس‌ها یا فیلم‌های واقعی وجود ندارند. در حال حاضر، تعداد انگشت‌شماری شاخص وجود دارد که دیپ‌فیک‌ها را افشا می‌کند:

  • بسیاری از دیپ‌فیک‌های کنونی در متحرک‌سازی واقع‌گرایانۀ چهره‌ها مشکل دارند و نتیجۀ آن، ویدئویی است که سوژۀ آن هرگز پلک نمی‌زند، یا به دفعات زیاد یا غیرطبیعی پلک می‌زند. با‌این‌حال، پس از اینکه محققان دانشگاه آلبانی مطالعه‌ای را برای تشخیص ناهنجاری پلک‌زدن منتشر کردند، دیپ‌فیک‌های جدیدی منتشر شدند که دیگر این مشکل را نداشتند.
  • به دنبال مشکلات پوست یا مو یا چهره‌هایی باشید که تارتر از پس‌زمینه و محیطی که در آن قرار گرفته‌اند به نظر می‌رسند. فوکوس ممکن است به‌طور غیرطبیعی نرم (Soft focus) به نظر برسد.
  • آیا نورپردازی غیرطبیعی به نظر می‌رسد؟ اغلب، الگوریتم‌های دیپ‌فیک نور کلیپ‌هایی را که به‌عنوان مدل‌هایی برای ویدئوی جعلی استفاده می‌شوند حفظ می‌کنند، که با نورپردازی ویدئوی موردنظر مطابقت ضعیفی دارد.
  • صدا ممکن است با شخص موردنظر مطابقت نداشته باشد، به‌خصوص اگر ویدئو جعلی باشد و صدای اصلی به‌دقت دست‌کاری و انطباق داده نشده باشد.

همچنین بررسی دقیق موارد زیر می‌تواند تا حدی به تشخیص دیپ‌فیک‌ها کمک کند:

  • رنگ غیرواقعی پوست یا تغییر در رنگ پوست؛
  • حرکات تند و سریع؛
  • همگام‌سازی ضعیف گفتار با حرکت لب؛
  • پیکسل‌‌های اضافی در قاب.

امروز چگونه با دیپ‌فیک مبارزه می‌کنیمامروز چگونه با دیپ‌فیک مبارزه می‌کنیم؟

هرچند با گذشت زمان و همراه با پیشرفت تکنولوژی، دیپ‌فیک‌ها نیز واقعی‌تر می‌شوند، اما ما هم در مبارزه با آن‌ها کاملاً بی‌دفاع نیستیم. چندین شرکت فناوری پیشرو در حال توسعۀ راه‌حل‌های خود در برابر محتوای دیپ‌فیک هستند. مایکروسافت و گوگل مجموعه‌داده‌هایی را ارائه می‌دهند که با استفاده از آن‌ها توسعه‌دهندگان می‌توانند سیستم‌های خود را برای تشخیص دیپ‌فیک تقویت کنند.

مایکروسافت همچنین روی یک نرم‌افزار تشخیص دیپ‌فیک مبتنی بر هوش مصنوعی کار کرده است. این ابزار می‌تواند به‌طور خودکار فیلم‌ها و عکس‌ها را تجزیه‌و‌تحلیل کند و به آن‌ها امتیاز بدهد تا معلوم شود که به‌لحاظ جعلی‌نبودن، چقدر قابل اعتمادند.

Sensity یک پلتفرم تشخیص مشابه آنتی‌ویروس برای دیپ‌فیک‌ها ایجاد کرده است. این پلتفرم از طریق ایمیل به کاربران هشدار می‌دهد که در حال تماشای چیزی هستند که توسط هوش مصنوعی تولید شده است. Sensity از همان فرایندهای یادگیری عمیق استفاده می‌کند که برای تولید ویدئوهای جعلی استفاده می‌شود.

Operation Minerva رویکرد ساده‌تری برای شناسایی دیپ‌فیک دارد. الگوریتم این شرکت، دیپ‌فیک‌های احتمالی را با ویدئوهای شناخته‌شده‌ای که قبلاً «انگشت‌‌‌نگاری دیجیتالی» شده‌اند، مقایسه می‌کند. برای مثال، می‌تواند نمونه‌هایی از دیپ‌فیک را با تشخیص اینکه ویدئوی دیپ‌فیک نسخۀ اصلاح‌شدۀ یک ویدئوی موجود است که قبلاً توسط Operation Minerva فهرست‌بندی شده است، شناسایی کند.

همچنین، در سال ۲۰۲۰، فیس‌بوک با همکاری مایکروسافت، خدمات وب آمازون و دانشگاه‌های پیشرو در سراسر جهان، میزبان چالش تشخیص دیپ‌فیک بود؛ یک ابتکار باز و مشارکتی به‌منظور تشویق ایجاد فناوری‌های جدید برای شناسایی دیپ‌فیک و سایر انواع رسانه‌های دست‌کاری‌شده. در این مسابقه جوایزی تا ۵۰۰۰۰۰ دلار در نظر گرفته شده بود. مواد خام این پروژه که تقریباً ۳۵۰۰ حامی را شامل می‌شد، منبع‌‌باز بود تا سایر محققان بتوانند از آن‌ها استفاده کنند.

آیا دیپ‌فیک قانونی است؟

ازآنجایی‌که فناوری دیپ‌فیک در چند سال اخیر شروع به گسترش کرده است، قوانین مرتبط با کاربرد آن هنوز اعمال نشده است و در بسیاری از کشورها هیچ‌گونه مقررات و محدودیتی برای آن وجود ندارد. یکی از کشورهایی که برای استفاده از دیپ‌فیک قانون دارد، چین است. ادارۀ فضای مجازی چین اعلام کرده است که اخبار جعلی ایجادشده با استفاده از دیپ‌فیک غیرقانونی است. در ایالات‌متحده و برخی کشورهای دیگر نیز برای دیپ‌فیک در برخی حوزه‌ها ازجمله هرزه‌نگاری‌های انتقام‌جویانه قوانینی وجود دارد. همچنین دیپ‌فیک‌هایی را که بر رقابت نامزدهای شرکت‌کننده در مناصب دولتی تأثیر می‌گذارند، ممنوع اعلام کرده‌اند.

جمع‌بندی

دیپ‌فیک نوعی فناوری بسیار جوان و امیدوارکننده است. جامعۀ جهانی هنوز در مرحلۀ آشنایی با آن قرار دارد و کاربرد کامل آن را پیدا نکرده است. دیپ‌فیک نیز مانند بسیاری از فناوری‌ها، مزایا و معایب خود را دارد. می‌تواند به دنیای ما آسیب برساند یا آن را بهبود بخشد. ما به زمان نیاز داریم تا بفهمیم که چگونه از آن در صنایع مختلف نهایت استفاده را ببریم. با گذشت زمان راه‌های زیادی برای کنترل آن پیدا خواهد شد، همان‌طور که در گذشته برای سایر نوآوری‌ها پیدا شده است.

۵/۵ | (۱۴ امتیاز) امتیازت با موفقیت ثبت شد!
مطالب پیشنهادی ما:

نظر شما چیست؟

آدرس ایمیل شما منتشر نخواهد شد.