ویدئوهای جعلی سلامت اجتماع را تهدید خواهند کرد

«دیپ‌فیک‌های» ساخته‌شده توسط هوش مصنوعی بسیار تأثیرگذار و خطرناک هستند. در اینجا نحوه تشخیص آنها آمده است

تاریخ انتشار : ۱۵:۱۵ ۲۹-۰۹-۱۴۰۲

از جنبه پزشکی قانونی، فرید ابزارهای زیادی برای شناسایی دیپ فیک ها پس از تولید دارد. برخی از آنها مبتنی بر هوش مصنوعی هستند و برخی دیگر از تجزیه و تحلیل مبتنی بر فیزیک استفاده می کنند. فرید می گوید: «ما می دانیم که تصاویر واقعی و تصاویر مصنوعی متفاوت ساخته می شوند. ما مدل های هوش مصنوعی داریم که بر روی صدها و صدها هزار تصویر واقعی و تصاویر جعلی به دنبال الگوهای آماری آموزش دیده اند.

تبریز امروز:

باراک اوباما به جعلی عمیق خود در صورت نگاه می کند
در بهار، ویدیویی در اینستاگرام از رقص بریتنی اسپیرز منتشر شد. هیچ چیز غیر عادی وجود نداشت . اما پس از آن، کارآگاهان آنلاین متوجه شدند که وقتی ستاره پاپ دست‌هایش را بالای سرش کشید، به نظر می‌رسید که چهره‌اش در یک لحظه ناگهان تغییر کرده است، مثل اینکه در حال پاک کردن یک ماسک است. جای تعجب نیست که این فیلم شناسایی شد و به سرعت از حساب کاربری حذف شد.

پس از فرونشست شدن گرد و غبار، دو مکتب فکری روی ویدیو وجود داشت: یکی ادعا می‌کرد که ویدیو یک دیپ جعلی است - یا یک قطعه رسانه مصنوعی که به روشی فریبنده با استفاده از نوع خاصی از هوش مصنوعی تغییر داده شده است - و دیگری ادعای آن را داشت. یک فیلتر ساده اینستاگرام بود که با حرکت اسپیرز شروع به خراب شدن کرد.

حادثه اسپیرز نشان می‌دهد که وقتی شما عکس‌های واقعی می‌گیرید، اینترنت چقدر خطرناک می تواند باشد ، زیرا اینترنت مملو از دروغ های عمیق است. به گفته دیپ مدیا، شرکتی که با وزارت دفاع ایالات متحده، سازمان ملل متحد و فناوری جهانی کار می کند، در مقایسه با مدت مشابه در سال 2022، در سال 2023، سه برابر بیشتر ویدیوهای دیپ فیک و هشت برابر تعداد دیپ فیک های صوتی پست شده است. شرکت ها برای شناسایی دیپ فیک ها آماده می شوند

پس این ترفند چگونه کار می کند؟ چگونه می‌توانیم بفهمیم کدام ویدیوهای بریتنی اسپیرز واقعی هستند و کدام‌ها ساختگی هستند ؟

دیپ فیک چیست؟
دیپ فیک از سال 2014، زمانی که ایان گودفلو برای اولین بار آنها را در دوران تحصیل دکتری "یادگیری ماشینی" اختراع کرد، وجود داشته است. دانشجوی دانشگاه مونترال (امروز، او یک دانشمند تحقیقاتی در DeepMind است، یک آزمایشگاه تحقیقاتی هوش مصنوعی که توسط گوگل اداره می شود.) برای ایجاد دیپ فیک،  یک مدل یادگیری ماشینی به نام شبکه های متخاصم مولد یا GAN را ارائه کرد.

 یادگیری ماشینی چیست ؟

یادگیری ماشینی زیرشاخه‌ای از هوش مصنوعی است که بر ایجاد الگوریتم‌های آماری متمرکز است که می‌تواند وظایف را بدون دستورالعمل‌های صریح انجام دهد.

GAN ها به الگوریتم ها کمک می کنند تا فراتر از وظیفه ساده طبقه بندی داده ها در عرصه ایجاد داده در این مورد، رسانه های فریبنده کار کنند -. این زمانی اتفاق می افتد که دو شبکه عصبی سعی می کنند یکدیگر را فریب دهند و تصور کنند که یک تصویر واقعی است. با استفاده از یک تصویر، یک GAN در حال آزمایش می‌تواند یک کلیپ ویدیویی از مثلاً ریچارد نیکسون بسازد که چیزی آشکارا نادرست است و او حتی هرگز آن را نگفته است. (بله، این قبلا ساخته شده است).

با پیشرفت هوش مصنوعی، این فریب‌ها متقاعدکننده‌تر و ایجاد آنها آسان‌تر شده‌اند. " دیپ فیکرها"ها زمانی نیاز داشتند که ابزارهای نرم افزاری مانند "آدوب فتوشاپ"  یا " افتر افکت" را کنار بگذارند و هر فیلم را فریم به فریم در یک فرآیند سخت و وقت گیر ویرایش کنند. امروزه، شبکه‌های عصبی عمیق برای کمک به GAN‌ها برای عملکرد دقیق‌تر پیشرفت کرده‌اند و پایگاه‌های داده عمومی بزرگ و روش‌های " یادگیری عمیق"  اکنون به لطف ابزارهای رایگان و در دسترس آنلاین به طور گسترده در دسترس هستند. در نتیجه، ساخت دیپ‌فیک ارزان‌تر است: تا اواخر سال 2022، یک شبیه‌سازی صوتی حدود 10 هزار  دلار هزینه آموزش سرور و هوش مصنوعی هزینه داشت، اما اکنون می‌توانید با استفاده از نرم‌افزار خارج از قفسه تنها با چند دلار، دیپ‌فیک یا دیپ مدیا بسازید. 

هانی فرید، دکترا، استاد علوم کامپیوتر و مهندسی برق دانشگاه کالیفرنیا، برکلی، می گوید: «این دموکراتیک کردن دسترسی به ابزارهایی  مکانیک است که در طول تاریخ در دست عده کمی بوده و اکنون در دست بسیاری هستند..

نحوه تشخیص دیپ فیک
هزاران منبع آنلاین، شاه‌ماهی‌های قرمز را به نمایش می‌گذارند تا در هنگام شکستن فیلم‌هایی که گمان می‌کنید برای ایجاد دیپ‌فیک دستکاری شده‌اند، به دنبال آن بگردید. ما قبلاً این را با تولیدکننده‌های تصویر هوش مصنوعی دیده‌ایم که برای تکثیر دقیق دست‌ها تلاش می‌کردند، و اغلب به افراد انگشت‌های اضافی می‌دادند که گاهی به طرز بدی منقبض می‌شدند. (با این حال، این مشکل بهبود یافته است، با تولید کننده های تصویر مانند MidJourney که می توانند به طور دقیق دست های خالدار انسان را به تصویر بکشند). 

فرید می‌گوید: «مشکل اینجاست: می‌توانم چند چیز را به شما بگویم، اما شش ماه بعد، این توصیه بی‌فایده خواهد بود. بازی دیپ فیک آنقدر سریع در حال حرکت است که جستجوی اشتباه بهترین مکانیسم دفاعی شما نیست.

من می توانم "بهترین راه برای محافظت از خود در برابر تقلب و اطلاعات نادرست  چند چیز را به شما بگویم، اما شش ماه بعد، این توصیه بی فایده خواهد بود.
فرید توضیح می‌دهد که آنلاین روش قدیمی است، یعنی فکر کردن به این که از کجا اطلاعات خود را دریافت می‌کنید. به بیشتر محتوایی که از رسانه های اجتماعی جذب می کنید با کمی نمک نگاه کنید. احتمال بسیار کمتری وجود دارد که سرمقاله‌های معتبری مانند نیویورک تایمز، NPR، واشنگتن پست، بی‌بی‌سی و غیره آگاهانه یک دیپ جعلی منتشر کنند - چه رسد به اینکه آن را از نظر ظاهری در نظر بگیریم. اکثر رسانه ها فرآیندی برای تأیید واقعی بودن ویدیوها دارند (تا جایی که در دسترس هستند).

یکی از این روش‌ها، جستجوی ساده عکس معکوس است - هم برای ویدیوها و هم برای تصاویر - برای تأیید فیلم/عکس‌هایی که ارسال می‌شوند. استفاده شده (یا احتمالا سرقت ادبی است.) این یکی از ابتدایی ترین اشکال پزشکی قانونی دیجیتال است که می توانید برای بررسی سریع محتوا از آن استفاده کنید.

پزشکی قانونی دیجیتال

پزشکی قانونی دیجیتال شاخه ای از علم پزشکی قانونی است که بر شناسایی، کسب، پردازش، تجزیه و تحلیل و گزارش داده هایی که به صورت الکترونیکی ذخیره می شوند تمرکز دارد.

ایجاد دیپ فیک
بدیهی است که قصد نداریم به شما بگوییم که چگونه از خودتان دیپ فیک ایجاد کنید، اما روند ایجاد هنوز بخش مهمی از درک آنها است. تولید یک ویدیوی متقاعدکننده همچنان زمان، قدرت پردازش و هزینه قابل توجهی را می طلبد. اکثر رایانه‌های سطح مصرف‌کننده تقریباً قدرت پردازشی کافی برای انتشار دیپ‌فیک‌ها به اندازه کافی سریع و مؤثر ندارند. دیپ فیک ممکن است هفته ها و گاهی ماه ها طول بکشد تا به طور کامل تکمیل گردد.

ایجاد دیپ‌فیک عکس بسیار ساده‌تر و سریع‌تر است. مولدهای تصویر هوش مصنوعی مانند Dall-E، Stable Diffusion و Midjourney به طرز باورنکردنی به ایجاد تصاویر واقعی بر اساس پیام های متنی ساده نزدیک هستند. فرید می‌گوید: «بنابراین، اکنون فقط مسئله زمان است، که احتمالاً می‌توانیم آن را در ماه‌ها اندازه‌گیری کنیم، قبل از اینکه اینها از چیزی که ما آن را دره عجیب می‌نامیم عبور کنند. این "دره غیرعادی" به نرم افزاری اشاره دارد که می تواند تصاویری غیرقابل تشخیص از واقعیت ایجاد کند. ما هنوز کاملاً آنجا نیستیم، اما به طرز باورنکردنی نزدیک هستیم.

نحوه تشخیص دیپ فیک

دیپ فیک نیکسون نشان می دهد که فرود روی ماه اتفاق نیافتاده است و فریب‌های صوتی حتی به دره عجیب و غریب نزدیک‌تر هستند، با توانایی ایجاد کلیپ با استفاده از نمونه‌های کوتاه صدای یک نفر - حتی فقط چند ثانیه!

فرید به ما می‌گوید که زمان زیادی نمی‌گذرد که در دنیایی زندگی می‌کنیم که هکرها می‌توانند صدای کسی را در زمان واقعی در طول یک تماس تلفنی جعل کنند.

دیپ فیک در اخبار
کل شکست ویدئوی بریتنی اسپیرز گواه این است که دیپ فیک می تواند عواقب واقعی و قانونی داشته باشد. اگر به هفت ماه پیش نگاه کنیم، فیلم اسپیرز منجر به ادعای مرگ او شد. حتی گزارش شده است که برخی تا آنجا پیش رفتند که با پلیس تماس گرفتند تا او را بررسی کنند - نقض آشکار حریم خصوصی. وقتی صحبت از استفاده از دیپ فیک به عنوان سلاح سیاسی به میان می آید، مخاطرات حتی بیشتر می شود.

بازیگران بد قبلاً دستگیر شده‌اند که از تولیدکننده‌های تصویر هوش مصنوعی برای ساختن صحنه‌های «شوک و هیبت» از درگیری‌های غزه استفاده می‌کنند که هرگز اتفاق نیفتاد. هر دو طرف از دیپ فیک ها به عنوان ابزاری برای تغییر روایت چنین لحظه ای پر احساس در تاریخ استفاده کرده اند.

با خواندن مقاله تحقیقاتی فرید در نوامبر 2022، "محافظت از رهبران جهان در برابر جعلیات عمیق"، که در مجموعه مقالات آکادمی ملی علوم ایالات متحده آمریکا منتشر شده است، او به نمونه ای خاص از کمدین و فیلمساز جردن پیل اشاره می کند. این یک ویدیوی اصلاح شده از بسیاری از سخنرانی‌های ریاست‌جمهوری اوباما است که در آن صدا با لب‌های همگام‌سازی شده برای مطابقت تغییر کرده است - . در زیر یک ویدیوی بسیار خنثی‌تر از نظر سیاسی قرار داده‌ایم که نشان می‌دهد چگونه دانشگاه واشنگتن یک دیپ‌فیک دیگر قانع‌کننده از باراک اوباما، رئیس‌جمهور سابق ایجاد کرد.

 

این محتوا از یوتیوب برداشت شده است. ممکن است بتوانید همان محتوا را در قالب دیگری پیدا کنید، یا ممکن است بتوانید اطلاعات بیشتری را در وب سایت آنها بیابید.
تماشا کنید
نکته کلیدی این است که ما قادر خواهیم بود دیپ فیک ها را مهندسی معکوس کنیم ... زمانی که به طور کامل نحوه ایجاد آنها را درک کنیم.

بعدی چیه؟
ما آموختیم که پزشکی قانونی دیجیتال یک راه حل مناسب برای تشخیص دیپ فیک در تئوری است، اما مقیاس پذیر نیست تا از طریق فایرهوس دیپ فیک هایی که پلتفرم های رسانه های اجتماعی را خنثی می کنند، عبور کند. فرید می‌گوید: «آن‌ها واقعاً برای کار در آن مقیاس طراحی نشده‌اند، در مقیاس 500 ساعت ویدیویی که در هر دقیقه در YouTube آپلود می‌شود.

برخی از امیدوارکننده‌ترین کارها شامل سیستم‌هایی است که یک برچسب دیجیتالی را به محتوای اصلی که در دستگاه خود ایجاد کرده‌اید اضافه می‌کنند. او می‌گوید: «دستگاه تعیین می‌کند که شما کی هستید، کجا هستید، چه زمانی آنجا بوده‌اید و چه چیزی ضبط کرده‌اید. 

و یک راه حل سریع و آسان برای سیستم عامل های رسانه های اجتماعی برای احراز هویت محتوای واقعی از تقلبی ارائه می دهد.

از جنبه پزشکی قانونی، فرید ابزارهای زیادی برای شناسایی دیپ فیک ها پس از تولید دارد. برخی از آنها مبتنی بر هوش مصنوعی هستند و برخی دیگر از تجزیه و تحلیل مبتنی بر فیزیک استفاده می کنند. فرید می گوید: «ما می دانیم که تصاویر واقعی و تصاویر مصنوعی متفاوت ساخته می شوند. ما مدل های هوش مصنوعی داریم که بر روی صدها و صدها هزار تصویر واقعی و تصاویر جعلی به دنبال الگوهای آماری آموزش دیده اند.

بنابراین، راه حل مناسب در آینده ترکیبی از ابزارهای پزشکی قانونی دیجیتال و اثر انگشت دیجیتال برای علامت گذاری محتوای اصلی است. در این بین، بهترین راه برای جلوگیری از فریب خوردن، استفاده از" نگاه به سر " است. اگر چیزی به نظر نمی رسد، احتمالاً همینطور است.

 مت کریسارا



نظرات کاربران


@