بازسازی کامپیوتری چهره انسان
سالها است که بحث بازسازی کامپیوتری چهره انسان مطرح است. فکر میکنم دستکم از یک دهه پیش و به دفعات، مطالبی در این زمینه در همین ماهنامه شبکه نوشتیم. خود من چند باری به بهانههای مختلف از جمله در بخش « هنر و سرگرمی» و وقتی در مورد جلوههای بصری فیلمها مینوشتم، چند نمونه از چهرههای جعلی را نیز مرور کردم. در آن زمان، هوش مصنوعی یا به بیان دقیقتر یادگیری ماشین پیشرفت زیادی نکرده بود و چهرههایی که ساخته میشدند هم باورپذیری زیادی نداشتند. آنچنانکه عموما در دامی میافتادند که هنوز هم برایش معادل فارسی درست و حسابی پیدا نکردهام: uncany valley
دیپفیک و دیپفیکرها
uncany valley
- در مورد uncany valley در همان مقالات جلوههای بصری بارها توضیح داده شد. پس از آن میگذرم. اما نکتهای که در آن مطالب بر آن تاکید میشد، هراسی بود که از جعل واقعیت وجود داشت. دیدن فیلمهایی نظیر « سرگذشت عجیب بنجامین باتن» و یا « مردان ایکس»، این پرسش را در ذهن ایجاد میکرد که آیا میتوان از این پس به آنچه بر صفحه تلویزیون میبینیم اعتماد کنیم؟ برای آنهایی که چنین فیلمهایی را ندیدهاند توضیح میدهم که در این قبیل فیلمها، نسخههایی بسیار دقیق از هنرپیشهها تهیه شده و آنها را در سالخوردگی یا جوانی نشان میدادند. بسیاری معتقد بودند در آینده احتمال دارد بطور مثال سخنرانی که از یک مقام سیاسی یا فرد مشهور بر صفحه تلویزیون میبینیم در واقعیت اتفاق نیفتاده بلکه ساخته و پرداخته کامپیوتر باشد.
- حالا میبینیم که کلیپهایی در شبکههای اجتماعی دست به دست میشوند و تا حد زیادی این هشدارها به واقعیت تبدیل شدهاند. کلیپهایی که تحت عنوان دیپفیک (DeepFake) یا جعل عمیق شناخته میشوند. اما آنچه امروز میبینیم با آنچه در آن سالها پیشبینی میشد تفاوتی اساسی دارد. در آن سالها که بحث بازسازی کامپیوتری و جعل سخنرانیها به میان میآمد، معمولاً از شرکتهای بزرگ یاد میشد. بطور مثال گفته میشود استودیوهای بزرگ و معروف ساخت جلوههای بصری دست به چنین کارهایی خواهند زد زیرا آنها ابزار و پول لازم را دارند. اگر هم کسی خواهان چنین جعلهایی باشد باید به چنین شرکتهایی مراجعه کند. حتی بعد از موفقیت فیلمهایی نظیر سرگذشت عجیب بنجامین باتن ( مورد عجیب بنجامین باتن) این بحث قوت گرفته بود که شرکتها نسخههایی مجازی و بسیار دقیق از بازیگران معروف را بایگانی خواهند کرد تا در روز مبادا از آنها استفاده کنند بدون اینکه نیاز به حضور فیزیکی بازیگران باشد. اما داستان امروز بسیار متفاوت است.
- اکنون ابزارهای جعل تصاویر ویدیویی بطور گستردهای در دسترس هستند و حتی برخی از هموطنان خودمان هم دست به کار شدهاند و دیپفیک میسازند. اینکار آنقدر در حال رواج یافتن است که حرفهای با عنوان دیپفیکر هم ظهور کرده است. اگر زمانی شک میکردیم که آیا عکسی که میبینیم واقعی است یا خلق شده توسط فیلترهای فوتوشاپ، حالا باید به ویدیوهایی که از سخنرانیها و یا مصاحبهها میبینیم هم شک کنیم. البته کلیپهای دیپفیکی که من تاکنون دیدهام به عمد اغراقآمیز ساخته شده بودند و در نتیجه به سادگی میتوان جعلی بودنشان را فهمید. اما اگر ظرافت بیشتری در استفاده از ابزارهای جعل تصویر به خرج داده شود به راحتی در میان سیل ویدیوهایی که به ما میرسند و معمولاً دقت چندانی در راستیآزمایی آنها نمیکنیم چنین ویدیوهای جعلی خواهند توانست ما را فریب داده و بطور گسترده و البته نامحسوس منتشر شوند. سالها است که ایده ساخت ویدیوهای جعلی مطرح است، اما این بحثها بیشتر سر و شکلی آکادمیک داشتند و ابزارها و روشها در دسترس افراد عادی نبودند. امروز کافی است جستجویی کنید تا با فهرستی بلندبالا از روشها، نرمافزارها و ابزارهای ساخت چنین ویدیوهایی مواجه شوید. این نکته را نباید فراموش کرد که دیپفیک بر اساس یادگیری ماشینی است و این بدین معنی است که به مرور، بیشتر میآموزد و بهتر میشود. ساخته شدن و انتشار چنین ویدیوهایی گریزناپذیر است و در آینده با دیپفیکهایی فریبندهتر و بینقصتر مواجه خواهیم شد. ظاهرا بهترین کاری که میتوانیم برای مقابله با دیپفیکها انجام دهیم این است که از ماشینها سریعتر باشیم و بهتر یاد بگیریم
ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را میتوانید از کتابخانههای عمومی سراسر کشور و نیز از دکههای روزنامهفروشی تهیه نمائید.
ثبت اشتراک نسخه کاغذی ماهنامه شبکه
ثبت اشتراک نسخه آنلاین
کتاب الکترونیک +Network راهنمای شبکهها
- برای دانلود تنها کتاب کامل ترجمه فارسی +Network اینجا کلیک کنید.
کتاب الکترونیک دوره مقدماتی آموزش پایتون
- اگر قصد یادگیری برنامهنویسی را دارید ولی هیچ پیشزمینهای ندارید اینجا کلیک کنید.
به اشتراک گذاری مطلب:
نظر شما چیست؟