در چند دهۀ گذشته، هوش مصنوعی (AI) بهسرعت در حال توسعه بوده است. این فناوری در زمینههای مختلف برای اهداف بیشماری کاربرد دارد و کیفیت و کارایی بسیاری از صنایع را بهبود میبخشد. اما تأثیر همۀ محصولات هوش مصنوعی مثبت نیست و برخی از آنها میتوانند توسط مجرمان مورد سوءاستفاده قرار گیرند.
بهتازگی فناوری دیپفیک (Deepfake) در سرخط خبرها قرار گرفته است. در دیپفیکها، هوش مصنوعی بهگونهای برنامهریزی میشود تا چهرۀ یک فرد را با چهرهای دیگر، در تصویر یا ویدئو جایگزین کند. قربانیان چنین اقداماتی اغلب افراد مشهور، سلبریتیها و سیاستمداران هستند.
در این مطلب از ویپدیا، میخواهیم به فناوری دیپفیک و روشهای تشخیص آن بپردازیم.
دیپفیک چیست؟
دیپفیک (Deepfake) (همچنین با املای Deep Fake) نوعی هوش مصنوعی است که برای تولید محتوای جعلی و متقاعدکننده و فریبهای صوتی و تصویری استفاده میشود. این اصطلاح که هم فناوری و هم محتوای جعلی ناشی از آن را توصیف میکند، ترکیبی از دو کلمۀ Deep (عمیق) و Fake (جعلی) است. Deep در اینجا به فناوری هوش مصنوعی اشاره دارد که بهعنوان یادگیری عمیق (Deep Learning) شناخته میشود. جعل در دیپفیک، بهشکلِ تغییر یا ترکیب چهرهها، گفتار و بازی با احساسات اعمال میشود. درواقع، دیپفیک تقلید دیجیتالیِ عملی است که توسط شخص انجام نشده است.
دیپفیکها رویدادها، اظهارات یا اقداماتی را به تصویر میکشند که هرگز واقعاً اتفاق نیفتادهاند. نتایج میتواند کاملاً قانعکننده باشد: تقلبی عمیق که با سایر اشکال اطلاعات نادرست متفاوت است؛ زیرا تشخیص نادرستبودن آن بسیار دشوار است. اولین گامها برای دستیابی به این فناوری در دهۀ ۹۰ میلادی توسط مؤسسات دانشگاهی برداشته شد و بعدها از سوی طیف گستردهتری از افراد مورد توجه و استفاده قرار گرفت. اگرچه تولید برنامههای دیپفیک، جریان اصلی محسوب نمیشود، باوجوداین توانسته در فضای رسانهای سروصدای زیادی به پا کند.
دیپفیک چگونه عمل میکند؟
مفهوم اصلی پشت فناوری دیپفیک، تغییر چهره است. کاربران اسنپچت با عملکردهای تغییر چهره یا فیلترهایی که تغییراتی را در چهره اعمال میکنند آشنا هستند. دیپفیک هم تا حدی شبیه اسنپچت است، اما بسیار واقعیتر.
روشهای مختلفی برای ساختن دیپفیک وجود دارد، اما رایجترین روشها استفاده از شبکههای عصبی عمیق شامل رمزنگارهای خودکار است که از تکنیک تغییر چهره استفاده میکنند. شما ابتدا به یک ویدئوی هدف بهعنوان پایۀ دیپفیک و سپس به مجموعهای از کلیپهای ویدئویی از شخصی که میخواهید هدف قرار دهید نیاز دارید.
ویدئوها میتوانند کاملاً نامرتبط باشند. برای مثال، ویدئوی هدف ممکن است کلیپی از یک فیلم هالیوودی باشد، و ویدئوهای شخصی که میخواهید در فیلم درج کنید ممکن است کلیپهای تصادفی دانلودشده از یوتیوب باشند. رمزنگار خودکار یک برنامۀ هوش مصنوعی یادگیری عمیق است که وظیفه دارد کلیپهای ویدئویی را بررسی کند تا بفهمد شخص از زوایای مختلف و در شرایط محیطی گوناگون چگونه به نظر میرسد و سپس با یافتن ویژگیهای مشترک، آن شخص را روی فردِ حاضر در ویدئوی موردنظر نگاشت میکند.
بدین ترتیب، میتوان ویدئوهای جعلی را با استفاده از یک تکنیک یادگیری ماشینی به نام «شبکۀ متخاصم مولد» (Generative Adversarial Network) یا GAN تولید کرد. برای مثال، یک GAN میتواند هزاران عکس نیکلاس کیج را وارسی و درنهایت یک تصویر جدید تولید کند، بدون اینکه کپی عین به عین هیچیک از آن عکسها باشد.
محتوای دیپفیک با استفاده از دو الگوریتم هوش مصنوعی رقیب ساخته میشود که یکی را مولد (Generator) و دیگری را ممیز (Discriminator) مینامند. الگوریتم مولد، که محتوای چندرسانهای جعلی را میسازد، از الگوریتم ممیز میخواهد که واقعی یا مصنوعی بودن محتوا را تعیین کند. الگوریتم مولد و ممیز با هم شبکۀ متخاصم مولد (GAN) را تشکیل میدهند. هر بار که ممیز محتوایی را بهعنوان محتوای جعلی شناسایی میکند، اطلاعات ارزشمندی درمورد چگونگی بهبود دیپفیک بعدی در اختیار سازنده قرار میدهد.
GAN یک فناوری چندمنظوره است و میتوان از آن برای تولید صدای جدید از صدای موجود یا متن جدید از متن موجود نیز استفاده کرد. فناوری مورد استفاده برای ایجاد دیپفیکها طوری برنامهریزی شده که چهرهها را براساس نقاط برجستۀ آنها (گوشۀ چشم و دهان، سوراخهای بینی، خط فک و…) ترسیم میکند.
آیا دیپفیک محدود به ویدئو است؟
دیپفیک فقط به ویدئو محدود نمیشود. صدای دیپفیک، زمینهای است که بهسرعت در حال رشد است و تعداد زیادی برنامۀ کاربردی نیز دارد. اکنون میتوان با استفاده از الگوریتمهای یادگیری عمیق، با صرف چند ساعت (یا در برخی موارد، دقیقه) صدای شخصی را شبیهسازی و دیپفیکهای صدا ایجاد کرد.
صدای دیپفیک، در قالب جایگزینی صدا دارای کاربردهای پزشکی است و همچنین در طراحی بازیهای رایانهای کاربرد دارد. اکنون برنامهنویسان به شخصیتهای درون بازی اجازه میدهند بهجای تکیه بر مجموعۀ محدودی از اسکریپتهایی که قبل از شروع بازی ضبط شدهاند، هر چیزی را در زمان واقعی بیان کنند.
نرمافزارهای تولید دیپفیک
چندین برنامه و نرمافزار وجود دارد که تولید دیپفیک را حتی برای مبتدیان آسان کردهاند؛ ازجمله برنامۀ چینی Zao، DeepFace Lab، FaceApp (که یک برنامۀ ویرایش عکس با تکنیکهای هوش مصنوعی داخلی است)، Face Swap و… .
تعداد زیادی از نرمافزارهای دیپفیک را میتوان در GitHub، یک جامعۀ منبعباز توسعۀ نرمافزار، یافت. برخی از این برنامهها صرفاً برای مقاصد سرگرمی استفاده میشوند -به همین دلیل است که تولید دیپفیک غیرقانونی نیست- درحالیکه برخی دیگر به احتمال زیاد بهطور مخرب استفاده میشوند.
از دیپفیکها چه استفادهای میشود؟
استفاده از دیپفیکها در رسانههای جریان اصلی، ازجمله فیلمهای پرفروش و پخشهای خبری، در حال افزایش است. بهترین نمونههای دیپفیک نهتنها مردم را سرگرم یا وحشتزده میکنند، بلکه راههای جدیدی را برای متحولکردن فرایند خلاقیت هنرمندان و فیلمسازان نشان میدهند.
یک نمونۀ معروف، مربوط به زمانی است که یک مؤسسۀ خیریۀ سلامت در بریتانیا از یک دیپفیک برای ارسال پیام ضد مالاریا توسط دیوید بکهام استفاده کرد. این پیام به ۹ زبان زندۀ دنیا ارائه شد. بااینحال، قابل توجهترین و درعینحال خطرناکترین موارد استفاده از دیپفیکها، مربوط به زمانی است که افراد از این فناوری در راستای اهداف پلید استفاده میکنند. دیپفیکها میتوانند برای انتشار اطلاعات نادرست از طریق یک منبع قابل اعتماد، برای مثال در تبلیغات انتخاباتی، استفاده شوند. همین وضعیت باعث شده تا تصور شود که این فناوری زندگی مدرن را مختل میکند.
البته، همۀ دیپفیکها مخرب نیستند. دیپفیکها کاربردهای بیضرر و حتی مفیدی دارند؛ ازجمله استفاده در صنعت سینما و بازی. همچنین دیپفیکهای طنزی که با حضور بازیگرانی همچون نیکلاس کیج ساخته میشوند. مثلاً اگر نیکلاس کیج در فیلم «مهاجمان کشتی گمشده» (Raiders of the Lost Ark) ظاهر میشد، چگونه به نظر میرسید؟
گسترش دیپفیک با فیلمهای هرزهنگاری جعلی آغاز شد. بسیاری از سلبریتیهای زن قربانی آن دسته از دیپفیکها شدند؛ ازجمله دیزی ریدلی، جنیفر لارنس، اما واتسون و گل گدوت. این موضوع، زنان مرتبط با رهبران کشورهای مختلف مانند میشل اوباما، ایوانکا ترامپ و کیت میدلتون را نیز تحتتأثیر قرار داد.
گروه بعدی از افرادی که تحتتأثیر دیپفیک قرار میگیرند، سیاستمداران هستند. ویدئوهایی از توهین میشل اوباما به دونالد ترامپ منتشر شد. در ویدئویی دیگر، صحبتهای نانسی پلوسی پردازش شد تا حضار باور کنند که او مست بوده است. در ویدئوی جعلی دیگر، دونالد ترامپ بلژیک را به دلیل عضویتش در توافقنامۀ آبوهوایی پاریس تمسخر میکند.
گفتنی است که برای دیپفیکها موارد استفادۀ قانونی نیز وجود دارد. شما میتوانید برنامههای زیادی برای تغییر چهره در عکسها و ویدئوها، در App Store و Play Market پیدا کنید. این عقیده وجود دارد که دیپفیک آیندۀ تولید محتوا است. در ادامه، به ۷ استفادۀ اصلی دیپفیکها اشاره شده است:
۱) باجگیری
دیپفیک یک ابزار بسیار شوم در دست کسانی است که به دنبال باجگیری یا تحقیر دیگران هستند. جامعۀ ما، بهخصوص نسل قدیمیتر، هنوز از وجود فناوری دیپفیک آگاه نیست. بنابراین افراد میتوانند با استفاده از دیپفیکها آبروی دیگران را دستمایه قرار دهند و از آنها باجگیری کنند.
۲) سیاست
همانطور که قبلاً ذکر شد، سیاستمداران ازجمله کسانی هستند که اغلب سوژۀ ویدئوهای دیپفیک قرار میگیرند. دیپفیکها میتوانند به جایگاه یک نامزد انتخاباتی آسیب جدی وارد کنند.
در سال ۲۰۱۸، یک حزب سیاسی بلژیکی ویدئویی از سخنرانی دونالد ترامپ منتشر کرد و از بلژیک خواست تا از توافقنامۀ آبوهوایی پاریس خارج شود، درحالیکه ترامپ هرگز آن سخنرانی را انجام نداده بود.
در سال ۲۰۱۹، هنرمندان رسانهای فرانچسکا پانتا و هالسی بورگوند از MIT یک ویدئوی دروغین با بازی ریچارد نیکسون، رئیسجمهور سابق ایالاتمتحده، تولید کردند. نیکسون در این ویدئو از شکست برنامۀ آپولو ۱۱ خبر داد و گفت که هیچیک از خدمۀ آپولو از ماه برنگشتند. این یک سخنرانی واقعی بود که برای چنین سناریویی آماده شده بود. آنها بهمدت شش ماه با گروهی از متخصصان مختلف روی این ویدئو کار کردند. هدف آنها ساختن محتوایی بود که بیشترین شباهت را به واقعیت داشته باشد تا از طریق آن، پتانسیل فناوری دیپفیک را نشان دهند.
۳) هنر
یکی از کاربردهای رایج دیپفیک در هنر، صحبتکردن پرترههای معروف است. محققان روسی این کار را با مونالیزای داوینچی انجام دادند. موزۀ دالی در فلوریدا فیلمهایی از سالوادور دالی را از طریق فیلمهای آرشیوی برای جذب بازدیدکنندگان بازسازی کرد و توانست جوایز متعددی را در حوزۀ خلاقیت رسانهای و تبلیغات دریافت کند.
۴) بازیگری
در فیلمها اغلب لازم است چهرۀ بازیگران را بسازیم یا تغییر دهیم. در فیلم Rogue One: A Star Wars Story از دیپفیک برای بازسازی چهرۀ پرنسس لیا و گرند موف تارکین استفاده شد.
۵) فیلمها
استودیوی تحقیقاتی دیزنی مشغول کار روی فناوری جلوههای بصری دیپفیک است. این کار هزینههای زمانی و مالی صرفشده برای دستیابی به فرد موردنظر را به میزان قابل توجهی کاهش میدهد. البته هنوز مشکلاتی وجود دارد و برای بهدستآوردن یک نتیجۀ رضایتبخش با کیفیت بالا، به تلاش بیشتری نیاز است. این همان فناوری مورد استفاده در فیلم جنگ ستارگان است که در بالا ذکر شد.
۶) شبکههای اجتماعی
درحالیکه برخی از شبکههای اجتماعی مانند توییتر و فیسبوک با بهروزرسانی سیاستهای خود، با دیپفیک مبارزه میکنند و دیپفیک را ممنوع کردهاند، برخی دیگر از شبکههای اجتماعی از آن استقبال میکنند. اسنپچت از سال ۲۰۱۶ ویژگیهای تغییر چهره را ارائه کرده است. تیکتاک نیز تکنیکی را به کار گرفته که به کاربرانش امکان میدهد چهرهها را در ویدئوها تغییر دهند.
۷) هویت آنلاین جعلی
کانال کرۀ جنوبی MBN برای جایگزینی مجری اخبار خود از دیپفیک استفاده کرد. این فناوری برای اهداف مشابه اما با شخصیتی کاملاً تخیلی نیز استفاده شده است. یکی از این شخصیتها الیور تیلور، دانشجوی دانشگاه بیرمنگام بود. پروفایلهای او در شبکههای اجتماعی نشان میداد که او در یک خانوادۀ یهودی بزرگ شده و بهطور فعال درگیر یهودستیزی بوده است و در همین راستا، توجه او به مازن مصری، استاد دانشگاه لندن، جلب شد. تیلور، مصری و همسرش را به همدردی با تروریستها متهم کرد، اما درنهایت مشخص نشد چه کسی پشت این پروفایل بوده است؛ زیرا اطلاعات کافی دربارۀ آن کشف نشد. در سال ۲۰۱۷ گروهی از محققان و کارآفرینان، Synthesia را طراحی کردند: یک نرمافزار مبتنی بر هوش مصنوعی که قادر به ایجاد محتوای سمعی و بصری برای رسانههای مصنوعی است. این نرمافزار به مشتریان خود اجازه میدهد تا فیلمهای واقعگرایانه با شخصیتهای تخیلی بسازند.
همچنین، در اینجا میتوانید ۱۴ نمونه دیپفیک را ببینید که کاربران اینترنت را وحشتزده و سرگرم کرد. این نمونههای دیپفیک که ساختههای اخیر و قدیمی را شامل میشوند، قدرت و امکانات این فناوری را نشان میدهند.
دیپفیکها چه پیامدهایی دارند؟
هرچند فناوری مورد استفاده برای ساختن دیپفیکها فناوری نسبتاً جدیدی است، اما بهسرعت در حال پیشرفت است و بررسی واقعیبودن یا نبودن یک ویدئو روزبهروز دشوارتر میشود. تحولات در این نوع فناوریها پیامدهای اجتماعی، اخلاقی و سیاسی آشکاری دارد. در حال حاضر مسائلی پیرامون منابع خبری و اعتبار روایتهای آنلاین وجود دارد و دیپفیکها این امکان را دارند که مشکل اطلاعات نادرست آنلاین را تشدید کنند یا اعتبار و اعتماد به اخبار و اطلاعات را بهطور کلی مختل و تضعیف کنند.
خطر اصلیِ اطلاعات نادرست و فناوری دیپفیک، ایجاد بیاعتمادی یا بیتفاوتی در افراد نسبت به آنچه در اینترنت میبینیم یا میشنویم است. اگر همهچیز میتواند جعلی باشد، به این معنی است که دیگر هیچچیز واقعی نیست؟ عکسها، فیلمها و فایلهای صوتی همواره به آگاهی ما از گذشته کمک کردهاند و نحوۀ دیدن و دانستن چیزها را شکل دادهاند. برخی از مردم در حال حاضر حقایق مربوط به رویدادهایی را که بدون شک رخ دادهاند، مانند هولوکاست، فرود بر ماه و ۱۱ سپتامبر، با وجود اثبات ویدئویی آنها، زیر سؤال میبرند. اگر دیپفیکها مردم را به این باور برسانند که نمیشود به ویدئوها اعتماد کرد، مشکلات مربوط به اطلاعات نادرست و تئوریهای توطئه بیشتر و عمیقتر خواهد شد.
بسیاری از کارشناسان بر این باورند که در آینده، با توسعۀ بیشتر فناوری، دیپفیکها بسیار پیچیدهتر خواهند شد و ممکن است تهدیدهای جدیتری را برای مردم ایجاد کنند که بیشتر مربوط به مداخله در انتخابات، تنشهای سیاسی و فعالیتهای مجرمانه خواهد بود.
چگونه با استفاده از تفکر انتقادی، دیپفیکها را تشخیص دهیم؟
مانند همۀ انواع اطلاعات آنلاینی که با آنها مواجه میشویم، مهمترین کاری که میتوانیم هنگام تصمیمگیری دربارۀ واقعی یا جعلی بودن ویدئوها یا تصاویر آنلاین انجام دهیم، استفاده از تفکر انتقادی است. برای استفاده از تفکر انتقادی میبایست از خود سؤالاتی کلیدی بپرسیم. این چند نکتۀ مفید از First Draft برای تأیید هرگونه اطلاعات آنلاین ازجمله دیپفیکها به شما کمک میکند:
- منشأ: چه کسی و چرا این ویدئو را به اشتراک گذاشته است؟
- منبع: منبع اصلی این ویدئو چه کسی یا کجاست؟
- تاریخ: این ویدئو چه زمانی ایجاد شده است؟
- مکان: حساب کاربری در کجا ساخته شده؟ سایت در کجا ایجاد شده؟ این محتوا در کجا تولید شده است؟
- انگیزه: چرا این ویدئو تولید شده است؟ آیا ویدئو اهداف و مقاصد سوء فرد دیگری را پیش میبرد؟ چه کسی از این ویدئو سود میبرد؟
- انتظارات: آیا فرد حاضر در ویدئو چیزی را میگوید که هرگز انتظار نمیرود بگوید؟
چگونه با استفاده از فناوری، دیپفیکها را تشخیص دهیم؟
فناوریهای تشخیص دیپفیکها نیز با استفاده از الگوریتمهایی مشابه الگوریتمهای تولید دیپفیکها ساخته شدهاند. آنها علائمی را تشخیص میدهند که در عکسها یا فیلمهای واقعی وجود ندارند. در حال حاضر، تعداد انگشتشماری شاخص وجود دارد که دیپفیکها را افشا میکند:
- بسیاری از دیپفیکهای کنونی در متحرکسازی واقعگرایانۀ چهرهها مشکل دارند و نتیجۀ آن، ویدئویی است که سوژۀ آن هرگز پلک نمیزند، یا به دفعات زیاد یا غیرطبیعی پلک میزند. بااینحال، پس از اینکه محققان دانشگاه آلبانی مطالعهای را برای تشخیص ناهنجاری پلکزدن منتشر کردند، دیپفیکهای جدیدی منتشر شدند که دیگر این مشکل را نداشتند.
- به دنبال مشکلات پوست یا مو یا چهرههایی باشید که تارتر از پسزمینه و محیطی که در آن قرار گرفتهاند به نظر میرسند. فوکوس ممکن است بهطور غیرطبیعی نرم (Soft focus) به نظر برسد.
- آیا نورپردازی غیرطبیعی به نظر میرسد؟ اغلب، الگوریتمهای دیپفیک نور کلیپهایی را که بهعنوان مدلهایی برای ویدئوی جعلی استفاده میشوند حفظ میکنند، که با نورپردازی ویدئوی موردنظر مطابقت ضعیفی دارد.
- صدا ممکن است با شخص موردنظر مطابقت نداشته باشد، بهخصوص اگر ویدئو جعلی باشد و صدای اصلی بهدقت دستکاری و انطباق داده نشده باشد.
همچنین بررسی دقیق موارد زیر میتواند تا حدی به تشخیص دیپفیکها کمک کند:
- رنگ غیرواقعی پوست یا تغییر در رنگ پوست؛
- حرکات تند و سریع؛
- همگامسازی ضعیف گفتار با حرکت لب؛
- پیکسلهای اضافی در قاب.
امروز چگونه با دیپفیک مبارزه میکنیم؟
هرچند با گذشت زمان و همراه با پیشرفت تکنولوژی، دیپفیکها نیز واقعیتر میشوند، اما ما هم در مبارزه با آنها کاملاً بیدفاع نیستیم. چندین شرکت فناوری پیشرو در حال توسعۀ راهحلهای خود در برابر محتوای دیپفیک هستند. مایکروسافت و گوگل مجموعهدادههایی را ارائه میدهند که با استفاده از آنها توسعهدهندگان میتوانند سیستمهای خود را برای تشخیص دیپفیک تقویت کنند.
مایکروسافت همچنین روی یک نرمافزار تشخیص دیپفیک مبتنی بر هوش مصنوعی کار کرده است. این ابزار میتواند بهطور خودکار فیلمها و عکسها را تجزیهوتحلیل کند و به آنها امتیاز بدهد تا معلوم شود که بهلحاظ جعلینبودن، چقدر قابل اعتمادند.
Sensity یک پلتفرم تشخیص مشابه آنتیویروس برای دیپفیکها ایجاد کرده است. این پلتفرم از طریق ایمیل به کاربران هشدار میدهد که در حال تماشای چیزی هستند که توسط هوش مصنوعی تولید شده است. Sensity از همان فرایندهای یادگیری عمیق استفاده میکند که برای تولید ویدئوهای جعلی استفاده میشود.
Operation Minerva رویکرد سادهتری برای شناسایی دیپفیک دارد. الگوریتم این شرکت، دیپفیکهای احتمالی را با ویدئوهای شناختهشدهای که قبلاً «انگشتنگاری دیجیتالی» شدهاند، مقایسه میکند. برای مثال، میتواند نمونههایی از دیپفیک را با تشخیص اینکه ویدئوی دیپفیک نسخۀ اصلاحشدۀ یک ویدئوی موجود است که قبلاً توسط Operation Minerva فهرستبندی شده است، شناسایی کند.
همچنین، در سال ۲۰۲۰، فیسبوک با همکاری مایکروسافت، خدمات وب آمازون و دانشگاههای پیشرو در سراسر جهان، میزبان چالش تشخیص دیپفیک بود؛ یک ابتکار باز و مشارکتی بهمنظور تشویق ایجاد فناوریهای جدید برای شناسایی دیپفیک و سایر انواع رسانههای دستکاریشده. در این مسابقه جوایزی تا ۵۰۰۰۰۰ دلار در نظر گرفته شده بود. مواد خام این پروژه که تقریباً ۳۵۰۰ حامی را شامل میشد، منبعباز بود تا سایر محققان بتوانند از آنها استفاده کنند.
آیا دیپفیک قانونی است؟
ازآنجاییکه فناوری دیپفیک در چند سال اخیر شروع به گسترش کرده است، قوانین مرتبط با کاربرد آن هنوز اعمال نشده است و در بسیاری از کشورها هیچگونه مقررات و محدودیتی برای آن وجود ندارد. یکی از کشورهایی که برای استفاده از دیپفیک قانون دارد، چین است. ادارۀ فضای مجازی چین اعلام کرده است که اخبار جعلی ایجادشده با استفاده از دیپفیک غیرقانونی است. در ایالاتمتحده و برخی کشورهای دیگر نیز برای دیپفیک در برخی حوزهها ازجمله هرزهنگاریهای انتقامجویانه قوانینی وجود دارد. همچنین دیپفیکهایی را که بر رقابت نامزدهای شرکتکننده در مناصب دولتی تأثیر میگذارند، ممنوع اعلام کردهاند.
جمعبندی
دیپفیک نوعی فناوری بسیار جوان و امیدوارکننده است. جامعۀ جهانی هنوز در مرحلۀ آشنایی با آن قرار دارد و کاربرد کامل آن را پیدا نکرده است. دیپفیک نیز مانند بسیاری از فناوریها، مزایا و معایب خود را دارد. میتواند به دنیای ما آسیب برساند یا آن را بهبود بخشد. ما به زمان نیاز داریم تا بفهمیم که چگونه از آن در صنایع مختلف نهایت استفاده را ببریم. با گذشت زمان راههای زیادی برای کنترل آن پیدا خواهد شد، همانطور که در گذشته برای سایر نوآوریها پیدا شده است.