در دنیای دوقطبی ما می‌توان برای هرچیزی یک روی مثبت و یک روی منفی ساخت، این وظیفه بر دوش انسان است که از چاقو برای تهیه و تولید غذا استفاده کند یا به عنوان سلاح سرد برای مرگ یک آدم بی گناه، وضع گذشته، حال و آینده خودمان و جامعه بشری بر اساس تصمیماتی که خودمان گرفته‌ایم یا می‌گیریم ساخته می‌شود و این موضوعی انکار ناپذیر است.

از ابتدای ساخت سیستم‌های رایانه‌ای نوین، نوع استفاده مثبت و منفی آن به یکی از داغ‌ترین موضوعات در کشورهای مختلف تبدیل شد، کارشناسان اعتقاد داشتند که اثرگذاری کامپیوتر‌ها برروی انسان‌ها بسیار گسترده خواهد بود و ترویج استفاده منفی از این سیستم‌ها، می‌تواند درصد زیادی از مردم جهان را درگیر کند. طولی نکشید که پیش‌بینی‌ها به واقعیت پیوست، در حال حاضر رایانه‌های شخصی، لپ‌تاپ‌ها و تلفن‌های هوشمند در هر منزلی یافت می‌شود و حتی کودکان نیز از این نوع وسایل استفاده می‌کنند، اما موضوع مهم نوع استفاده ما از فناوری است، یک لپ‌تاپ می‌تواند وسیله‌ای برای رسیدن به دانشی برای نجات هزاران انسان باشد یا به عنوان یک ابزار جاسوسی، زندگی بسیاری از افراد را تحت تاثیر قرار دهد، تفاوت لپ‌تاپ با چاقو نوع کارکردهای بسیار گسترده و اثرگذاری عمیق‌تر آن است، کارشناسان نیز از همان ابتدا به همین مسئله اشاره داشتند و به همین دلیل است که فناوری می‌تواند زندگی انسان‌ها برروی کره زمین را تغییر دهد.

به این ترتیب از زمان تولد رایانه، خطر آن نیز آغاز شد، سیستم‌های هوشمند رایانه‌ای توانایی انجام کارهای فراوانی را دارند و این موضوع انسان‌ها را در موضع قدرت قرار می‌دهد، باید اقرار کرد که جنبه مثبت فناوری، تاثیر بی‌انتهایی در بهبود زندگی انسان‌ها گذاشته اما در دنیایی موازی، افرادی به جای استفاده صحیح از رایانه، از آن در مسیر دزدی، کلاهبرداری، تولید محتوای نامناسب و حتی تغییر واقعیت به دروغ استفاده می‌کنند.

زمانی

که دروغ به واقعیت تبدیل می‌شود

شاید تا یکی دو سال پیش، نهایت تلاش افراد سودجو برای تغییر دادن واقعیت به ویرایش یک عکس در فتوشاپ ختم می‌شد، اما امروز از فناوری‌هایی صحبت می‌شود که دیگر به یک عکس دو بعدی ثابت، محدود نمی‌شود، روی صحبت ما با فیلم‌های ویدئویی است، فناوری به نام دیپ فیک آمده تا مرز میان حقیقت و دروغ را از بین ببرد. قدرت دیپ فیک را با مثالی توضیح می‌دهیم، فرض کنید ویدئویی به شما نشان داده شود که در آن خودتان با لباسی رسمی، در میان انبوهی از جمعیت در حال سخنرانی برای انتخابات ریاست جمهوری هستید، تمامی حرکات و رفتارهای شما در فیلم واقعی است، دستتان را حرکت می‌دهید، بدنتان حرکت می‌کند، بر صورتتان گاهی لبخند و گاهی اخم نقش می‌بندد، حتی صدای آن شخص در ویدئو نیز دقیقا صدای خودتان است، در این لحظه شما گیج خواهید شد، چه اتفاقی افتاده؟ شما که برادر یا خواهر دوقلویی ندارید، پس آن فرد در ویدئو کیست؟ دیپ فیک می‌تواند به همین قدر واقعیت و دروغ را تغییر دهد.

مثالی دیگر: فرض کنید  ویدئویی به شما نشان داده می‌شود، این بار جناب دونالد ترامپ، رئیس جمهور آمریکا درون ویدئو در حالی که در کاخ سفید نشسته و در حال مصاحبه رسمی با یکی از خبرگزاری‌های مهم دنیا است از حقیقتی عجیب پرده برداری می‌کند، او می‌گویید که اصالتی ایرانی دارد! این درحالی است که مصاحبه کاملا جدی به نظر می‌رسد و ترامپ خودش با همان صدا و رفتارهای همیشگی واقعا این حرف‌ها را به زبان می‌آورد، در ادامه ویدئو ترامپ برای اثبات حقیقت به زبان فارسی صحبت می‌کند! او می‌گوید که در یکی از روستا‌های ایران به دنیا آمده و حال می‌خواهد به ایران بازگردد و زندگی جدیدی را آغاز کند! با دیپ فیک توانایی ساخت چنین ویدئویی وجود دارد.

ویدئو زیر را نگاه کنید، در این فیلم اوباما صحبت‌هایی را انجام می‌دهد که در واقعیت هرگز انجام نداده، در واقع ویدئو زیر یک نمونه از دیپ فیک است، در این ویدئو تمام صحبت‌های اوباما از ویدئویی که جوردن پیل، بازیگر آمریکایی از خود ضبط کرده برداشته شده، اما همانطور که می‌بینید تشخیص این موضوع بسیار سخت است، زیرا ویدئو اوباما کاملا واقعی به نظر می‌رسد.

دیپ فیک به طور کلی یک تکنیک یا فناوری در تغییر ویدئو و حتی عکس است که می‌تواند به واقعی‌ترین شکل ممکن، چهره افراد، صدا، حرکات دست و بدن آن‌ها را تغییر دهد، با دیپ فیک می‌توان صحبت‌های جعلی به یک سخنرانی اضافه کرد آن‌هم در حالی که صدا و حرکت لب‌های شخص سخنران، نشان دهده آن است که این حرف‌ها از زبان او گفته می‌شود اما در حقیقت این یک دروغ است. یا دیپ فیک می‌توان چهره افراد حاضر در یک ویدئو را عوض کرد، به این ترتیب با تغییر صورت سخنران، می‌توان صبحت‌های زده شده در ویدئو را به یک نفر دیگر نسبت داد. با دیپ فیک حتی می‌توان یک نقاشی را به صحبت درآورد، فرض کنید ویدئویی از مونالیزا vh می‌بینید که در حال صحبت در مورد سیاست است.

دیپ فیک، فناوری جدیدی که به دروغ‌ها رنگ واقعیت می‌بخشد

ریشه‌های دیپ فیک

اما قبل از آن‌که به سراغ فناوری دیپ فیک برویم کمی به ریشه‌های آن خواهیم پرداخت، دیپ فیک خیلی هم برای ما غریب نیست، حتما با نرم افزار Face App آشنا هستید، برنامه‌ای که توسط یک توسعه دهنده نامعتبر ساخته شده و به نقل خیلی از کارشناسان، قابلیت جاسوسی از تلفن‌های همراه را دارد، در این برنامه با ارسال یک چهره، حالت‌های پیری، کودکی و موارد دیگری را به شکلی واقعی دریافت خواهید کرد، الگوریتم‌های پایه‌ای این برنامه در دیپ فیک کاربرد دارد، یا در فیلترهای تغییر چهره در برنامه‌ای مانند اسنپ‌چت که بیشتر به واقعیت افزوده وابسطه است نیز از بخشی از الگوریتم‌های پایه‌ای دیپ فیک استفاده می‌کند. البته قسمت اعظمی از ریشه‌های دیپ فیک به هالیوود باز می‌گردد، تغییر رایانه‌ای چهره در فیلم‌های سینمایی مختلف کار متداولی است و همه ما نمونه‌های مختلفی از آن را دیده‌ایم.

دیپ فیک چیست؟

دیپ فیک از یک الگوریتم پیچیده هوش مصنوعی استفاده می‌کند، این الگوریتم فعلا عمومی نشده و در حال حاضر در اختیار برخی از گروه‌های مطالعاتی دانشگاهی و برخی از افراد سودجو قرار دارد، البته چنین الگوریتیم در محیط تحقیقاتی دانشگاهی نیز تولید شده است.

دیپ فیک، فناوری جدیدی که به دروغ‌ها رنگ واقعیت می‌بخشد

ساخت ویدئو‌هایی برپایه دیپ فیک آسان نیست، به‌خصوص برای تغییر چهره باید حالت‌های مختلف چهره فرد مورد نظر را به این الگوریتم داد، برای همین ساخت دیپ فیک برای افراد مشهور که هزاران ویدئو و عکس از آن‌ها در حالت‌‎های مختلف موجود است کار آسان‌تری نسبت به ساخت یک ویدئو برای یک فرد عادی محسوب می‌شود، دقت و کیفیت ویدئو ساخته شده نیز در حالتی که منبع گسترده‌ای از عکس و حالت‌های مختلف چهره شخص به الگوریتم داده شود، بالاتر خواهد رفت. اما به طور کلی برای هر کسی که یک یا چند ویدئو از خود در اینترنت یا شبکه‌های اجتماعی منتشر کرده باشد می‌توان یک فیلم دروغین بر اساس دیپ فیک ساخت.

تغییر چهره و صدا با طبیعی‌ترین حالت ممکن در یک ویدئو، ماهیت اصلی دیپ فیک است، اتفاقی که شاید در وهله اول برای ساخت ویدئو‌های طنز بسیار کاربرد داشته باشد، اما به زودی مرزی میان واقعیت و کذب باقی نمی‌گذارد. با متداول شدن این فناوری، دیگر نمی‌توان به هیچ ویدئویی اطمینان کرد.

دیپ فیک، فناوری جدیدی که به دروغ‌ها رنگ واقعیت می‌بخشد

چرا دیپ فیک خطرناک است؟

با بررسی جنبه‌های مختلف دیپ فیک به راحتی می‌توان به خطرات جبران ناپذیر آن پی برد، خطراتی که همین حالا نیز گوشه‌های از آن دیده می‌شود، با دیپ فیک واقعیت‌ها به دروغ، دروغ‌ها به واقعیت تبدیل می‌شود، با دیپ فیک می‌توان توطئه کرد، مردم را گمراه ساخت و حتی با آبروی افراد بازی کرد.

با متداول شدن دیپ فیک دیگر نمی‌توان به فیلم‌های منتشر شده از افراد سیاسی اعتماد کرد، در این روش امکان تحریف تمام سخنرانی‌ها، مصاحبه‌ها و گفت‌و‌گوها وجود دارد، در این حال با نزدیکی به یک انتخابات سیاسی، تشخیص حق و باطل بسیار دشوار خواهد شد.

یکی دیگر از کاربردهای دیپ فیک در مسائل اخلاقی خود را نشان می‌دهد، تا همین لحظه چندین ویدئو مستهجن و دروغین از بازیگران مطرح زن آمریکایی ساخته شده که بازتاپ گسترده‌ای نیز در فضای اینترنت داشته است، البته همه می‌دانند که در این ویدئو‌ها از تکنیک تغییر چهره استفاده شده و اصالت آن‌ها دروغین است اما این مورد چیزی از تاثیرات مخرب این ویدئو‌ها نمی‌کاهد. شاید بازیگر زن آمریکایی خیلی به این مسائل اهمیت ندهد، اما با فراگیر شدن این فناوری، ساخت این ویدئو‌ها در کشورهای مسلمان بسیار فاجعه انگیز خواهد بود.

دیپ فیک، فناوری جدیدی که به دروغ‌ها رنگ واقعیت می‌بخشد

همچنین دیپ فیک یک فناوری بسیار کاربردی برای اخاذی و دزدی محسوب می‌شود، فرض کنید فردی با ساخت یکی از همین ویدئو‌های غیر اخلاقی از شما، برای عدم انتشار آن پول مطالبه کند، در صورت انتشار نیز راهی برای اثبات دروغین بودن آن وجود ندارد و به این ترتیب بنیان خانواده از هم گسیخته می‌شود. با دیپ فیک به آسانی می‌توان با آبروی مردم بازی کرد.

آیا راهی برای مقابله با دیپ فیک وجود دارد؟

در حال حاضر خیر، اما گروه‌های زیادی به دنبال آن هستند تا با الگوریتم‌های خاص، واقعی یا دروغین بودن یک ویدئو را مشخص کنند، در این حالت بخش عمده‌ای از تاثیرات مخرب دیپ فیک کاسته می‌شود، البته هیچ تضمینی برای موفقیت آمیز بودن این تحقیقات نیست.

دیپ فیک، فناوری جدیدی که به دروغ‌ها رنگ واقعیت می‌بخشد

دیپ فیک همان استفاده منفی از فناوری است که در سطح بالایی خود را بروز می‌دهد، این انتخاب انسان‌ها است که از ماهیت خوب فناوری، استفاده‌ای ناصحیح داشته باشند، حمایت کاربران نیز از برنامه‌هایی مانند Face App موجب شد تا ایده و انگیزه ساخت چنین الگوریتم‌هایی برای ایجاد تغییر در ویدئو‌ها، تقویت شود. همان ایده پیر کردن یک چهره به تغییر صورت یک انسان و ساخت ویدئویی کذب برای آن منجر شده، این موضوع نشان دهنده اهمیت رفتار کاربران در دنیای مجازی و پرداختن به موضوعات مختلفی است که در آینده می‌تواند دردسرساز شود.برای ورود به کانال تلگرام ما کلیک کنید.