29 آذر 1402
از جنبه پزشکی قانونی، فرید ابزارهای زیادی برای شناسایی دیپ فیک ها پس از تولید دارد. برخی از آنها مبتنی بر هوش مصنوعی هستند و برخی دیگر از تجزیه و تحلیل مبتنی بر فیزیک استفاده می کنند. فرید می گوید: «ما می دانیم که تصاویر واقعی و تصاویر مصنوعی متفاوت ساخته می شوند. ما مدل های هوش مصنوعی داریم که بر روی صدها و صدها هزار تصویر واقعی و تصاویر جعلی به دنبال الگوهای آماری آموزش دیده اند.
تبریز امروز:
در بهار، ویدیویی در اینستاگرام از رقص بریتنی اسپیرز منتشر شد. هیچ چیز غیر عادی وجود نداشت . اما پس از آن، کارآگاهان آنلاین متوجه شدند که وقتی ستاره پاپ دستهایش را بالای سرش کشید، به نظر میرسید که چهرهاش در یک لحظه ناگهان تغییر کرده است، مثل اینکه در حال پاک کردن یک ماسک است. جای تعجب نیست که این فیلم شناسایی شد و به سرعت از حساب کاربری حذف شد.
پس از فرونشست شدن گرد و غبار، دو مکتب فکری روی ویدیو وجود داشت: یکی ادعا میکرد که ویدیو یک دیپ جعلی است - یا یک قطعه رسانه مصنوعی که به روشی فریبنده با استفاده از نوع خاصی از هوش مصنوعی تغییر داده شده است - و دیگری ادعای آن را داشت. یک فیلتر ساده اینستاگرام بود که با حرکت اسپیرز شروع به خراب شدن کرد.
حادثه اسپیرز نشان میدهد که وقتی شما عکسهای واقعی میگیرید، اینترنت چقدر خطرناک می تواند باشد ، زیرا اینترنت مملو از دروغ های عمیق است. به گفته دیپ مدیا، شرکتی که با وزارت دفاع ایالات متحده، سازمان ملل متحد و فناوری جهانی کار می کند، در مقایسه با مدت مشابه در سال 2022، در سال 2023، سه برابر بیشتر ویدیوهای دیپ فیک و هشت برابر تعداد دیپ فیک های صوتی پست شده است. شرکت ها برای شناسایی دیپ فیک ها آماده می شوند
پس این ترفند چگونه کار می کند؟ چگونه میتوانیم بفهمیم کدام ویدیوهای بریتنی اسپیرز واقعی هستند و کدامها ساختگی هستند ؟
دیپ فیک چیست؟
دیپ فیک از سال 2014، زمانی که ایان گودفلو برای اولین بار آنها را در دوران تحصیل دکتری "یادگیری ماشینی" اختراع کرد، وجود داشته است. دانشجوی دانشگاه مونترال (امروز، او یک دانشمند تحقیقاتی در DeepMind است، یک آزمایشگاه تحقیقاتی هوش مصنوعی که توسط گوگل اداره می شود.) برای ایجاد دیپ فیک، یک مدل یادگیری ماشینی به نام شبکه های متخاصم مولد یا GAN را ارائه کرد.
یادگیری ماشینی چیست ؟
یادگیری ماشینی زیرشاخهای از هوش مصنوعی است که بر ایجاد الگوریتمهای آماری متمرکز است که میتواند وظایف را بدون دستورالعملهای صریح انجام دهد.
GAN ها به الگوریتم ها کمک می کنند تا فراتر از وظیفه ساده طبقه بندی داده ها در عرصه ایجاد داده در این مورد، رسانه های فریبنده کار کنند -. این زمانی اتفاق می افتد که دو شبکه عصبی سعی می کنند یکدیگر را فریب دهند و تصور کنند که یک تصویر واقعی است. با استفاده از یک تصویر، یک GAN در حال آزمایش میتواند یک کلیپ ویدیویی از مثلاً ریچارد نیکسون بسازد که چیزی آشکارا نادرست است و او حتی هرگز آن را نگفته است. (بله، این قبلا ساخته شده است).
با پیشرفت هوش مصنوعی، این فریبها متقاعدکنندهتر و ایجاد آنها آسانتر شدهاند. " دیپ فیکرها"ها زمانی نیاز داشتند که ابزارهای نرم افزاری مانند "آدوب فتوشاپ" یا " افتر افکت" را کنار بگذارند و هر فیلم را فریم به فریم در یک فرآیند سخت و وقت گیر ویرایش کنند. امروزه، شبکههای عصبی عمیق برای کمک به GANها برای عملکرد دقیقتر پیشرفت کردهاند و پایگاههای داده عمومی بزرگ و روشهای " یادگیری عمیق" اکنون به لطف ابزارهای رایگان و در دسترس آنلاین به طور گسترده در دسترس هستند. در نتیجه، ساخت دیپفیک ارزانتر است: تا اواخر سال 2022، یک شبیهسازی صوتی حدود 10 هزار دلار هزینه آموزش سرور و هوش مصنوعی هزینه داشت، اما اکنون میتوانید با استفاده از نرمافزار خارج از قفسه تنها با چند دلار، دیپفیک یا دیپ مدیا بسازید.
هانی فرید، دکترا، استاد علوم کامپیوتر و مهندسی برق دانشگاه کالیفرنیا، برکلی، می گوید: «این دموکراتیک کردن دسترسی به ابزارهایی مکانیک است که در طول تاریخ در دست عده کمی بوده و اکنون در دست بسیاری هستند..
فرید میگوید: «مشکل اینجاست: میتوانم چند چیز را به شما بگویم، اما شش ماه بعد، این توصیه بیفایده خواهد بود. بازی دیپ فیک آنقدر سریع در حال حرکت است که جستجوی اشتباه بهترین مکانیسم دفاعی شما نیست.
من می توانم "بهترین راه برای محافظت از خود در برابر تقلب و اطلاعات نادرست چند چیز را به شما بگویم، اما شش ماه بعد، این توصیه بی فایده خواهد بود.
فرید توضیح میدهد که آنلاین روش قدیمی است، یعنی فکر کردن به این که از کجا اطلاعات خود را دریافت میکنید. به بیشتر محتوایی که از رسانه های اجتماعی جذب می کنید با کمی نمک نگاه کنید. احتمال بسیار کمتری وجود دارد که سرمقالههای معتبری مانند نیویورک تایمز، NPR، واشنگتن پست، بیبیسی و غیره آگاهانه یک دیپ جعلی منتشر کنند - چه رسد به اینکه آن را از نظر ظاهری در نظر بگیریم. اکثر رسانه ها فرآیندی برای تأیید واقعی بودن ویدیوها دارند (تا جایی که در دسترس هستند).
یکی از این روشها، جستجوی ساده عکس معکوس است - هم برای ویدیوها و هم برای تصاویر - برای تأیید فیلم/عکسهایی که ارسال میشوند. استفاده شده (یا احتمالا سرقت ادبی است.) این یکی از ابتدایی ترین اشکال پزشکی قانونی دیجیتال است که می توانید برای بررسی سریع محتوا از آن استفاده کنید.
پزشکی قانونی دیجیتال
پزشکی قانونی دیجیتال شاخه ای از علم پزشکی قانونی است که بر شناسایی، کسب، پردازش، تجزیه و تحلیل و گزارش داده هایی که به صورت الکترونیکی ذخیره می شوند تمرکز دارد.
ایجاد دیپ فیک
بدیهی است که قصد نداریم به شما بگوییم که چگونه از خودتان دیپ فیک ایجاد کنید، اما روند ایجاد هنوز بخش مهمی از درک آنها است. تولید یک ویدیوی متقاعدکننده همچنان زمان، قدرت پردازش و هزینه قابل توجهی را می طلبد. اکثر رایانههای سطح مصرفکننده تقریباً قدرت پردازشی کافی برای انتشار دیپفیکها به اندازه کافی سریع و مؤثر ندارند. دیپ فیک ممکن است هفته ها و گاهی ماه ها طول بکشد تا به طور کامل تکمیل گردد.
ایجاد دیپفیک عکس بسیار سادهتر و سریعتر است. مولدهای تصویر هوش مصنوعی مانند Dall-E، Stable Diffusion و Midjourney به طرز باورنکردنی به ایجاد تصاویر واقعی بر اساس پیام های متنی ساده نزدیک هستند. فرید میگوید: «بنابراین، اکنون فقط مسئله زمان است، که احتمالاً میتوانیم آن را در ماهها اندازهگیری کنیم، قبل از اینکه اینها از چیزی که ما آن را دره عجیب مینامیم عبور کنند. این "دره غیرعادی" به نرم افزاری اشاره دارد که می تواند تصاویری غیرقابل تشخیص از واقعیت ایجاد کند. ما هنوز کاملاً آنجا نیستیم، اما به طرز باورنکردنی نزدیک هستیم.
نحوه تشخیص دیپ فیک
دیپ فیک نیکسون نشان می دهد که فرود روی ماه اتفاق نیافتاده است و فریبهای صوتی حتی به دره عجیب و غریب نزدیکتر هستند، با توانایی ایجاد کلیپ با استفاده از نمونههای کوتاه صدای یک نفر - حتی فقط چند ثانیه!
فرید به ما میگوید که زمان زیادی نمیگذرد که در دنیایی زندگی میکنیم که هکرها میتوانند صدای کسی را در زمان واقعی در طول یک تماس تلفنی جعل کنند.
دیپ فیک در اخبار
کل شکست ویدئوی بریتنی اسپیرز گواه این است که دیپ فیک می تواند عواقب واقعی و قانونی داشته باشد. اگر به هفت ماه پیش نگاه کنیم، فیلم اسپیرز منجر به ادعای مرگ او شد. حتی گزارش شده است که برخی تا آنجا پیش رفتند که با پلیس تماس گرفتند تا او را بررسی کنند - نقض آشکار حریم خصوصی. وقتی صحبت از استفاده از دیپ فیک به عنوان سلاح سیاسی به میان می آید، مخاطرات حتی بیشتر می شود.
بازیگران بد قبلاً دستگیر شدهاند که از تولیدکنندههای تصویر هوش مصنوعی برای ساختن صحنههای «شوک و هیبت» از درگیریهای غزه استفاده میکنند که هرگز اتفاق نیفتاد. هر دو طرف از دیپ فیک ها به عنوان ابزاری برای تغییر روایت چنین لحظه ای پر احساس در تاریخ استفاده کرده اند.
با خواندن مقاله تحقیقاتی فرید در نوامبر 2022، "محافظت از رهبران جهان در برابر جعلیات عمیق"، که در مجموعه مقالات آکادمی ملی علوم ایالات متحده آمریکا منتشر شده است، او به نمونه ای خاص از کمدین و فیلمساز جردن پیل اشاره می کند. این یک ویدیوی اصلاح شده از بسیاری از سخنرانیهای ریاستجمهوری اوباما است که در آن صدا با لبهای همگامسازی شده برای مطابقت تغییر کرده است - . در زیر یک ویدیوی بسیار خنثیتر از نظر سیاسی قرار دادهایم که نشان میدهد چگونه دانشگاه واشنگتن یک دیپفیک دیگر قانعکننده از باراک اوباما، رئیسجمهور سابق ایجاد کرد.
این محتوا از یوتیوب برداشت شده است. ممکن است بتوانید همان محتوا را در قالب دیگری پیدا کنید، یا ممکن است بتوانید اطلاعات بیشتری را در وب سایت آنها بیابید.
تماشا کنید
نکته کلیدی این است که ما قادر خواهیم بود دیپ فیک ها را مهندسی معکوس کنیم ... زمانی که به طور کامل نحوه ایجاد آنها را درک کنیم.
بعدی چیه؟
ما آموختیم که پزشکی قانونی دیجیتال یک راه حل مناسب برای تشخیص دیپ فیک در تئوری است، اما مقیاس پذیر نیست تا از طریق فایرهوس دیپ فیک هایی که پلتفرم های رسانه های اجتماعی را خنثی می کنند، عبور کند. فرید میگوید: «آنها واقعاً برای کار در آن مقیاس طراحی نشدهاند، در مقیاس 500 ساعت ویدیویی که در هر دقیقه در YouTube آپلود میشود.
برخی از امیدوارکنندهترین کارها شامل سیستمهایی است که یک برچسب دیجیتالی را به محتوای اصلی که در دستگاه خود ایجاد کردهاید اضافه میکنند. او میگوید: «دستگاه تعیین میکند که شما کی هستید، کجا هستید، چه زمانی آنجا بودهاید و چه چیزی ضبط کردهاید.
و یک راه حل سریع و آسان برای سیستم عامل های رسانه های اجتماعی برای احراز هویت محتوای واقعی از تقلبی ارائه می دهد.
از جنبه پزشکی قانونی، فرید ابزارهای زیادی برای شناسایی دیپ فیک ها پس از تولید دارد. برخی از آنها مبتنی بر هوش مصنوعی هستند و برخی دیگر از تجزیه و تحلیل مبتنی بر فیزیک استفاده می کنند. فرید می گوید: «ما می دانیم که تصاویر واقعی و تصاویر مصنوعی متفاوت ساخته می شوند. ما مدل های هوش مصنوعی داریم که بر روی صدها و صدها هزار تصویر واقعی و تصاویر جعلی به دنبال الگوهای آماری آموزش دیده اند.
بنابراین، راه حل مناسب در آینده ترکیبی از ابزارهای پزشکی قانونی دیجیتال و اثر انگشت دیجیتال برای علامت گذاری محتوای اصلی است. در این بین، بهترین راه برای جلوگیری از فریب خوردن، استفاده از" نگاه به سر " است. اگر چیزی به نظر نمی رسد، احتمالاً همینطور است.
مت کریسارا
اخبار ، گزارشات ، عکسها و فیلم های خود را برای ما ارسال دارید . برای ارسال میتوانید از طریق آدرس تلگرامی یا ایمیل استفاده کنید.