خبر های ویژه

حرفه ناپیدا قدمی به پیش بگذار و از تاریکی به درآی

5 اسفند 1402

تحقیقات اولیه کووید-19 مملو از روش‌های ضعیف و نتایج با کیفیت پایین بود- مشکلی برای علم که شیوع کرونا بدتر شد اما انگیزش تحقیقاتی صحیح ایجاد نکرد.

4 اسفند 1402

عاشیق ویسل به شکل ربات انسان نما کنسرت برگزار کرد

27 بهمن 1402

سیستم تصفیه آب تزریقی می تواند دسترسی به آب آشامیدنی تمیز را بهبود بخشد

12 بهمن 1402

مدهای لباس 3 بعدی در عصر دیجیتال

1 بهمن 1402

اولین دبیرستان متاورس در ژاپن افتتاح شد

29 دی 1402

میدان مغناطیسی زمین از حیات در برابر تشعشع محافظت می کند، اما می تواند حرکت کند و قطب های مغناطیسی حتی می توانند چرخش کنند.

6 دی 1402

ممنوعیت دیگ بخار در خانه های جدید در بریتانیا، هیدروژن را به عنوان منبع گرمایش رد می کند

4 دی 1402

«دیپ‌فیک‌های» ساخته‌شده توسط هوش مصنوعی بسیار تأثیرگذار و خطرناک هستند. در اینجا نحوه تشخیص آنها آمده است

29 آذر 1402

بهتر از دیوار: یک سیستم تشخیص می تواند به نظارت بر مرزها کمک کند

29 آذر 1402

بعد از دعوا. فیزیکدان وسوولود در دانشگاه مسکو

6 آذر 1402

قوانین جدید برچسب‌گذاری اتحادیه اروپا برای ماندگاری طولانی‌تر باتری‌ها و دور نگه داشتن آنها از محل‌های دفن زباله

28 آبان 1402

هوش مصنوعی به این معنی است که مردم دیگر نیازی به کار ندارند.

12 آبان 1402

هوای پاک از فناوری دریچه مکش کنار جاده ای

11 آبان 1402

تماس صوتی و تصویری از ایکس

4 آبان 1402

آمازون برای اینترنت ماهواره ای قدم جلو می گذارد

18 مهر 1402

29 آذر 1402

«دیپ‌فیک‌های» ساخته‌شده توسط هوش مصنوعی بسیار تأثیرگذار و خطرناک هستند. در اینجا نحوه تشخیص آنها آمده است

ویدئوهای جعلی سلامت اجتماع را تهدید خواهند کرد

از جنبه پزشکی قانونی، فرید ابزارهای زیادی برای شناسایی دیپ فیک ها پس از تولید دارد. برخی از آنها مبتنی بر هوش مصنوعی هستند و برخی دیگر از تجزیه و تحلیل مبتنی بر فیزیک استفاده می کنند. فرید می گوید: «ما می دانیم که تصاویر واقعی و تصاویر مصنوعی متفاوت ساخته می شوند. ما مدل های هوش مصنوعی داریم که بر روی صدها و صدها هزار تصویر واقعی و تصاویر جعلی به دنبال الگوهای آماری آموزش دیده اند.

تبریز امروز:

باراک اوباما به جعلی عمیق خود در صورت نگاه می کند
در بهار، ویدیویی در اینستاگرام از رقص بریتنی اسپیرز منتشر شد. هیچ چیز غیر عادی وجود نداشت . اما پس از آن، کارآگاهان آنلاین متوجه شدند که وقتی ستاره پاپ دست‌هایش را بالای سرش کشید، به نظر می‌رسید که چهره‌اش در یک لحظه ناگهان تغییر کرده است، مثل اینکه در حال پاک کردن یک ماسک است. جای تعجب نیست که این فیلم شناسایی شد و به سرعت از حساب کاربری حذف شد.

پس از فرونشست شدن گرد و غبار، دو مکتب فکری روی ویدیو وجود داشت: یکی ادعا می‌کرد که ویدیو یک دیپ جعلی است - یا یک قطعه رسانه مصنوعی که به روشی فریبنده با استفاده از نوع خاصی از هوش مصنوعی تغییر داده شده است - و دیگری ادعای آن را داشت. یک فیلتر ساده اینستاگرام بود که با حرکت اسپیرز شروع به خراب شدن کرد.

حادثه اسپیرز نشان می‌دهد که وقتی شما عکس‌های واقعی می‌گیرید، اینترنت چقدر خطرناک می تواند باشد ، زیرا اینترنت مملو از دروغ های عمیق است. به گفته دیپ مدیا، شرکتی که با وزارت دفاع ایالات متحده، سازمان ملل متحد و فناوری جهانی کار می کند، در مقایسه با مدت مشابه در سال 2022، در سال 2023، سه برابر بیشتر ویدیوهای دیپ فیک و هشت برابر تعداد دیپ فیک های صوتی پست شده است. شرکت ها برای شناسایی دیپ فیک ها آماده می شوند

پس این ترفند چگونه کار می کند؟ چگونه می‌توانیم بفهمیم کدام ویدیوهای بریتنی اسپیرز واقعی هستند و کدام‌ها ساختگی هستند ؟

دیپ فیک چیست؟
دیپ فیک از سال 2014، زمانی که ایان گودفلو برای اولین بار آنها را در دوران تحصیل دکتری "یادگیری ماشینی" اختراع کرد، وجود داشته است. دانشجوی دانشگاه مونترال (امروز، او یک دانشمند تحقیقاتی در DeepMind است، یک آزمایشگاه تحقیقاتی هوش مصنوعی که توسط گوگل اداره می شود.) برای ایجاد دیپ فیک،  یک مدل یادگیری ماشینی به نام شبکه های متخاصم مولد یا GAN را ارائه کرد.

 یادگیری ماشینی چیست ؟

یادگیری ماشینی زیرشاخه‌ای از هوش مصنوعی است که بر ایجاد الگوریتم‌های آماری متمرکز است که می‌تواند وظایف را بدون دستورالعمل‌های صریح انجام دهد.

GAN ها به الگوریتم ها کمک می کنند تا فراتر از وظیفه ساده طبقه بندی داده ها در عرصه ایجاد داده در این مورد، رسانه های فریبنده کار کنند -. این زمانی اتفاق می افتد که دو شبکه عصبی سعی می کنند یکدیگر را فریب دهند و تصور کنند که یک تصویر واقعی است. با استفاده از یک تصویر، یک GAN در حال آزمایش می‌تواند یک کلیپ ویدیویی از مثلاً ریچارد نیکسون بسازد که چیزی آشکارا نادرست است و او حتی هرگز آن را نگفته است. (بله، این قبلا ساخته شده است).

با پیشرفت هوش مصنوعی، این فریب‌ها متقاعدکننده‌تر و ایجاد آنها آسان‌تر شده‌اند. " دیپ فیکرها"ها زمانی نیاز داشتند که ابزارهای نرم افزاری مانند "آدوب فتوشاپ"  یا " افتر افکت" را کنار بگذارند و هر فیلم را فریم به فریم در یک فرآیند سخت و وقت گیر ویرایش کنند. امروزه، شبکه‌های عصبی عمیق برای کمک به GAN‌ها برای عملکرد دقیق‌تر پیشرفت کرده‌اند و پایگاه‌های داده عمومی بزرگ و روش‌های " یادگیری عمیق"  اکنون به لطف ابزارهای رایگان و در دسترس آنلاین به طور گسترده در دسترس هستند. در نتیجه، ساخت دیپ‌فیک ارزان‌تر است: تا اواخر سال 2022، یک شبیه‌سازی صوتی حدود 10 هزار  دلار هزینه آموزش سرور و هوش مصنوعی هزینه داشت، اما اکنون می‌توانید با استفاده از نرم‌افزار خارج از قفسه تنها با چند دلار، دیپ‌فیک یا دیپ مدیا بسازید. 

هانی فرید، دکترا، استاد علوم کامپیوتر و مهندسی برق دانشگاه کالیفرنیا، برکلی، می گوید: «این دموکراتیک کردن دسترسی به ابزارهایی  مکانیک است که در طول تاریخ در دست عده کمی بوده و اکنون در دست بسیاری هستند..

نحوه تشخیص دیپ فیک
هزاران منبع آنلاین، شاه‌ماهی‌های قرمز را به نمایش می‌گذارند تا در هنگام شکستن فیلم‌هایی که گمان می‌کنید برای ایجاد دیپ‌فیک دستکاری شده‌اند، به دنبال آن بگردید. ما قبلاً این را با تولیدکننده‌های تصویر هوش مصنوعی دیده‌ایم که برای تکثیر دقیق دست‌ها تلاش می‌کردند، و اغلب به افراد انگشت‌های اضافی می‌دادند که گاهی به طرز بدی منقبض می‌شدند. (با این حال، این مشکل بهبود یافته است، با تولید کننده های تصویر مانند MidJourney که می توانند به طور دقیق دست های خالدار انسان را به تصویر بکشند). 

فرید می‌گوید: «مشکل اینجاست: می‌توانم چند چیز را به شما بگویم، اما شش ماه بعد، این توصیه بی‌فایده خواهد بود. بازی دیپ فیک آنقدر سریع در حال حرکت است که جستجوی اشتباه بهترین مکانیسم دفاعی شما نیست.

من می توانم "بهترین راه برای محافظت از خود در برابر تقلب و اطلاعات نادرست  چند چیز را به شما بگویم، اما شش ماه بعد، این توصیه بی فایده خواهد بود.
فرید توضیح می‌دهد که آنلاین روش قدیمی است، یعنی فکر کردن به این که از کجا اطلاعات خود را دریافت می‌کنید. به بیشتر محتوایی که از رسانه های اجتماعی جذب می کنید با کمی نمک نگاه کنید. احتمال بسیار کمتری وجود دارد که سرمقاله‌های معتبری مانند نیویورک تایمز، NPR، واشنگتن پست، بی‌بی‌سی و غیره آگاهانه یک دیپ جعلی منتشر کنند - چه رسد به اینکه آن را از نظر ظاهری در نظر بگیریم. اکثر رسانه ها فرآیندی برای تأیید واقعی بودن ویدیوها دارند (تا جایی که در دسترس هستند).

یکی از این روش‌ها، جستجوی ساده عکس معکوس است - هم برای ویدیوها و هم برای تصاویر - برای تأیید فیلم/عکس‌هایی که ارسال می‌شوند. استفاده شده (یا احتمالا سرقت ادبی است.) این یکی از ابتدایی ترین اشکال پزشکی قانونی دیجیتال است که می توانید برای بررسی سریع محتوا از آن استفاده کنید.

پزشکی قانونی دیجیتال

پزشکی قانونی دیجیتال شاخه ای از علم پزشکی قانونی است که بر شناسایی، کسب، پردازش، تجزیه و تحلیل و گزارش داده هایی که به صورت الکترونیکی ذخیره می شوند تمرکز دارد.

ایجاد دیپ فیک
بدیهی است که قصد نداریم به شما بگوییم که چگونه از خودتان دیپ فیک ایجاد کنید، اما روند ایجاد هنوز بخش مهمی از درک آنها است. تولید یک ویدیوی متقاعدکننده همچنان زمان، قدرت پردازش و هزینه قابل توجهی را می طلبد. اکثر رایانه‌های سطح مصرف‌کننده تقریباً قدرت پردازشی کافی برای انتشار دیپ‌فیک‌ها به اندازه کافی سریع و مؤثر ندارند. دیپ فیک ممکن است هفته ها و گاهی ماه ها طول بکشد تا به طور کامل تکمیل گردد.

ایجاد دیپ‌فیک عکس بسیار ساده‌تر و سریع‌تر است. مولدهای تصویر هوش مصنوعی مانند Dall-E، Stable Diffusion و Midjourney به طرز باورنکردنی به ایجاد تصاویر واقعی بر اساس پیام های متنی ساده نزدیک هستند. فرید می‌گوید: «بنابراین، اکنون فقط مسئله زمان است، که احتمالاً می‌توانیم آن را در ماه‌ها اندازه‌گیری کنیم، قبل از اینکه اینها از چیزی که ما آن را دره عجیب می‌نامیم عبور کنند. این "دره غیرعادی" به نرم افزاری اشاره دارد که می تواند تصاویری غیرقابل تشخیص از واقعیت ایجاد کند. ما هنوز کاملاً آنجا نیستیم، اما به طرز باورنکردنی نزدیک هستیم.

نحوه تشخیص دیپ فیک

دیپ فیک نیکسون نشان می دهد که فرود روی ماه اتفاق نیافتاده است و فریب‌های صوتی حتی به دره عجیب و غریب نزدیک‌تر هستند، با توانایی ایجاد کلیپ با استفاده از نمونه‌های کوتاه صدای یک نفر - حتی فقط چند ثانیه!

فرید به ما می‌گوید که زمان زیادی نمی‌گذرد که در دنیایی زندگی می‌کنیم که هکرها می‌توانند صدای کسی را در زمان واقعی در طول یک تماس تلفنی جعل کنند.

دیپ فیک در اخبار
کل شکست ویدئوی بریتنی اسپیرز گواه این است که دیپ فیک می تواند عواقب واقعی و قانونی داشته باشد. اگر به هفت ماه پیش نگاه کنیم، فیلم اسپیرز منجر به ادعای مرگ او شد. حتی گزارش شده است که برخی تا آنجا پیش رفتند که با پلیس تماس گرفتند تا او را بررسی کنند - نقض آشکار حریم خصوصی. وقتی صحبت از استفاده از دیپ فیک به عنوان سلاح سیاسی به میان می آید، مخاطرات حتی بیشتر می شود.

بازیگران بد قبلاً دستگیر شده‌اند که از تولیدکننده‌های تصویر هوش مصنوعی برای ساختن صحنه‌های «شوک و هیبت» از درگیری‌های غزه استفاده می‌کنند که هرگز اتفاق نیفتاد. هر دو طرف از دیپ فیک ها به عنوان ابزاری برای تغییر روایت چنین لحظه ای پر احساس در تاریخ استفاده کرده اند.

با خواندن مقاله تحقیقاتی فرید در نوامبر 2022، "محافظت از رهبران جهان در برابر جعلیات عمیق"، که در مجموعه مقالات آکادمی ملی علوم ایالات متحده آمریکا منتشر شده است، او به نمونه ای خاص از کمدین و فیلمساز جردن پیل اشاره می کند. این یک ویدیوی اصلاح شده از بسیاری از سخنرانی‌های ریاست‌جمهوری اوباما است که در آن صدا با لب‌های همگام‌سازی شده برای مطابقت تغییر کرده است - . در زیر یک ویدیوی بسیار خنثی‌تر از نظر سیاسی قرار داده‌ایم که نشان می‌دهد چگونه دانشگاه واشنگتن یک دیپ‌فیک دیگر قانع‌کننده از باراک اوباما، رئیس‌جمهور سابق ایجاد کرد.

 

این محتوا از یوتیوب برداشت شده است. ممکن است بتوانید همان محتوا را در قالب دیگری پیدا کنید، یا ممکن است بتوانید اطلاعات بیشتری را در وب سایت آنها بیابید.
تماشا کنید
نکته کلیدی این است که ما قادر خواهیم بود دیپ فیک ها را مهندسی معکوس کنیم ... زمانی که به طور کامل نحوه ایجاد آنها را درک کنیم.

بعدی چیه؟
ما آموختیم که پزشکی قانونی دیجیتال یک راه حل مناسب برای تشخیص دیپ فیک در تئوری است، اما مقیاس پذیر نیست تا از طریق فایرهوس دیپ فیک هایی که پلتفرم های رسانه های اجتماعی را خنثی می کنند، عبور کند. فرید می‌گوید: «آن‌ها واقعاً برای کار در آن مقیاس طراحی نشده‌اند، در مقیاس 500 ساعت ویدیویی که در هر دقیقه در YouTube آپلود می‌شود.

برخی از امیدوارکننده‌ترین کارها شامل سیستم‌هایی است که یک برچسب دیجیتالی را به محتوای اصلی که در دستگاه خود ایجاد کرده‌اید اضافه می‌کنند. او می‌گوید: «دستگاه تعیین می‌کند که شما کی هستید، کجا هستید، چه زمانی آنجا بوده‌اید و چه چیزی ضبط کرده‌اید. 

و یک راه حل سریع و آسان برای سیستم عامل های رسانه های اجتماعی برای احراز هویت محتوای واقعی از تقلبی ارائه می دهد.

از جنبه پزشکی قانونی، فرید ابزارهای زیادی برای شناسایی دیپ فیک ها پس از تولید دارد. برخی از آنها مبتنی بر هوش مصنوعی هستند و برخی دیگر از تجزیه و تحلیل مبتنی بر فیزیک استفاده می کنند. فرید می گوید: «ما می دانیم که تصاویر واقعی و تصاویر مصنوعی متفاوت ساخته می شوند. ما مدل های هوش مصنوعی داریم که بر روی صدها و صدها هزار تصویر واقعی و تصاویر جعلی به دنبال الگوهای آماری آموزش دیده اند.

بنابراین، راه حل مناسب در آینده ترکیبی از ابزارهای پزشکی قانونی دیجیتال و اثر انگشت دیجیتال برای علامت گذاری محتوای اصلی است. در این بین، بهترین راه برای جلوگیری از فریب خوردن، استفاده از" نگاه به سر " است. اگر چیزی به نظر نمی رسد، احتمالاً همینطور است.

 مت کریسارا


ارتباط با تبریز امروز

اخبار ، گزارشات ، عکسها و فیلم های خود را برای ما ارسال دارید . برای ارسال میتوانید از طریق آدرس تلگرامی یا ایمیل استفاده کنید.

info@tabriz-emrooz.ir

اشتراک در خبرنامه

برای اطلاع از آخرین خبرهای تبریز امروز در کانال تلگرام ما عضو شوید.

کانل تلگرام تبریز امروز

فرم تماس با تبریز امروز

کلیه حقوق این سایت متعلق به پایگاه خبری تبریز امروز بوده و استفاده از مطالب آن با ذکر منبع بلامانع است.
طراحی وتولید توسططراح وب سایت