خبر های ویژه

پلیس پیش‌بینی‌کننده با هوش مصنوعی در حال گسترش است − پاسخگویی آن به عموم می‌تواند اثرات زیان‌بارش را مهار کند

17 اردیبهشت 1404

بازاندیشی در زیبایی شهری: دفاع از آسمان تاریک با حذف نورپردازی‌های تزئینی ال ای دی

4 اردیبهشت 1404

چگونه مغز خاطرات جدید می‌سازد؟ دانشمندان علوم اعصاب "قوانین" رمزگذاری اطلاعات در نورون‌ها را کشف کردند

29 فروردین 1404

گوگل، اجرای قوانین ضد انحصار و آینده حاکمیت دیجیتال اروپا

25 فروردین 1404

رئیس هوش مصنوعی مایکروسافت چگونه پیشرفت‌های مصرف‌کننده را برای کوپایلت اندازه‌گیری می‌کند

19 فروردین 1404

توپ روباتی در فضا

9 فروردین 1404

پیرولیز پلاستیک: روشی برای مقابله با ضایعات پلاستیکی با استفاده از حرارت

28 اسفند 1403

هنگامی که انسان‌ها با استفاده از هوش مصنوعی حق اختراع کسب می‌کنند، چه کسی مخترع است؟

24 اسفند 1403

کره در معماری:از اِتیِن-لویی بوله تا رنزو پیانو

18 اسفند 1403

نرم‌افزار همکاری: کمک به درخشش انسان‌ها در عصر هوش مصنوعی

15 اسفند 1403

برای ساخت نمک‌های جاده‌ای کم‌ضرر، در حال مطالعه ضد یخ‌های طبیعی تولیدشده توسط ماهی‌ها هستیم

11 اسفند 1403

علم پشت یخ‌زدایی هواپیما – یک مهندس مکانیک توضیح می‌دهد که چگونه شیمی و فیزیک پرواز را به تجربه‌ای لذت‌بخش‌تر تبدیل می‌کنند

11 اسفند 1403

ربات دستیار خانگی

6 اسفند 1403

بازار جنگ‌افزارهای سایبری:

1 اسفند 1403

هوش مصنوعی جدید توسط ایلان ماسک ارائه می شود

26 بهمن 1403

چگونه هوش مصنوعی می تواند در فرآیند طراحی خلاقانه کمک کند

20 بهمن 1403

17 اردیبهشت 1404

پلیس پیش‌بینی‌کننده با هوش مصنوعی در حال گسترش است − پاسخگویی آن به عموم می‌تواند اثرات زیان‌بارش را مهار کند

ماریا لونگو پژوهشگر پسادکتری حقوق و مدیریت عمومی، دانشگاه ویرجینیا

فیلم هیجان‌انگیز علمی-تخیلی «گزارش اقلیت» محصول سال ۲۰۰۲، آینده‌ای دیستوپیایی را به تصویر کشید که در آن یک واحد پلیس تخصصی وظیفه داشت افراد را به خاطر جرایمی که هنوز مرتکب نشده‌اند دستگیر کند. این فیلم به کارگردانی استیون اسپیلبرگ و بر اساس داستانی کوتاه از فیلیپ کی. دیک، حول محور «پیش‌جرم» می‌چرخید − سیستمی که با کمک سه روان‌بین یا «پیش‌بین» آینده قتل‌ها را پیش‌بینی می‌کرد و به پلیس اجازه می‌داد مداخله کند و از وقوع جرم جلوگیری نماید. این فیلم پرسش‌های اخلاقی سنگینی را مطرح می‌کند: چگونه می‌توان کسی را به خاطر جرمی که هنوز مرتکب نشده مقصر دانست؟ و وقتی سیستم اشتباه می‌کند چه اتفاقی می‌افتد؟ اگرچه چیزی به نام «پیش‌بین» همه‌چیزدان وجود ندارد، اما اجزای کلیدی از آینده‌ای که «گزارش اقلیت» تصور کرده بود، حتی سریع‌تر از آنچه سازندگانش پیش‌بینی کرده بودند، به واقعیت تبدیل شده‌اند. بیش از یک دهه است که ادارات پلیس در سراسر جهان از سیستم‌های داده‌محور برای پیش‌بینی زمان و مکان وقوع جرم و افرادی که ممکن است مرتکب آن شوند استفاده می‌کنند. پلیس پیش‌بینی‌کننده دیگر یک مفهوم انتزاعی یا آینده‌نگرانه نیست؛ بلکه واقعیتی است. تحلیلگران بازار پیش‌بینی می‌کنند که این فناوری با رشد چشمگیری مواجه خواهد شد. با توجه به چالش‌های استفاده مؤثر و عادلانه از یادگیری ماشین پیش‌بینی‌کننده، پلیس پیش‌بینی‌کننده نگرانی‌های اخلاقی قابل‌توجهی را برمی‌انگیزد. در غیاب راه‌حل‌های فناورانه در آینده نزدیک، رویکردی برای رسیدگی به این نگرانی‌ها وجود دارد: استفاده دولت از این فناوری را به‌عنوان موضوعی برای پاسخگویی دموکراتیک در نظر گرفتن.

تبریز امروز:

پلیس پیش بینی کننده توسط AI

منتشر شده: ۶ مه ۲۰۲۵، ساعت ۱۴:۳۵
فیلم هیجان‌انگیز علمی-تخیلی «گزارش اقلیت» محصول سال ۲۰۰۲، آینده‌ای دیستوپیایی را به تصویر کشید که در آن یک واحد پلیس تخصصی وظیفه داشت افراد را به خاطر جرایمی که هنوز مرتکب نشده‌اند دستگیر کند. این فیلم به کارگردانی استیون اسپیلبرگ و بر اساس داستانی کوتاه از فیلیپ کی. دیک، حول محور «پیش‌جرم» می‌چرخید − سیستمی که با کمک سه روان‌بین یا «پیش‌بین» آینده قتل‌ها را پیش‌بینی می‌کرد و به پلیس اجازه می‌داد مداخله کند و از وقوع جرم جلوگیری نماید.
این فیلم پرسش‌های اخلاقی سنگینی را مطرح می‌کند: چگونه می‌توان کسی را به خاطر جرمی که هنوز مرتکب نشده مقصر دانست؟ و وقتی سیستم اشتباه می‌کند چه اتفاقی می‌افتد؟
اگرچه چیزی به نام «پیش‌بین» همه‌چیزدان وجود ندارد، اما اجزای کلیدی از آینده‌ای که «گزارش اقلیت» تصور کرده بود، حتی سریع‌تر از آنچه سازندگانش پیش‌بینی کرده بودند، به واقعیت تبدیل شده‌اند. بیش از یک دهه است که ادارات پلیس در سراسر جهان از سیستم‌های داده‌محور برای پیش‌بینی زمان و مکان وقوع جرم و افرادی که ممکن است مرتکب آن شوند استفاده می‌کنند.
پلیس پیش‌بینی‌کننده دیگر یک مفهوم انتزاعی یا آینده‌نگرانه نیست؛ بلکه واقعیتی است. تحلیلگران بازار پیش‌بینی می‌کنند که این فناوری با رشد چشمگیری مواجه خواهد شد.
با توجه به چالش‌های استفاده مؤثر و عادلانه از یادگیری ماشین پیش‌بینی‌کننده، پلیس پیش‌بینی‌کننده نگرانی‌های اخلاقی قابل‌توجهی را برمی‌انگیزد. در غیاب راه‌حل‌های فناورانه در آینده نزدیک، رویکردی برای رسیدگی به این نگرانی‌ها وجود دارد: استفاده دولت از این فناوری را به‌عنوان موضوعی برای پاسخگویی دموکراتیک در نظر گرفتن.
تاریخچه نگران‌کننده
پلیس پیش‌بینی‌کننده به هوش مصنوعی و تحلیل داده‌ها وابسته است تا فعالیت‌های مجرمانه بالقوه را پیش از وقوع پیش‌بینی کند. این شامل تحلیل مجموعه‌های داده‌ای بزرگ از گزارش‌های جرم، سوابق دستگیری و اطلاعات اجتماعی یا جغرافیایی برای شناسایی الگوها و پیش‌بینی مکان وقوع جرم یا افرادی که ممکن است درگیر آن شوند، می‌شود.
نیروهای مجری قانون دهه‌هاست که از تحلیل داده‌ها برای ردیابی روندهای کلی استفاده می‌کنند. اما فناوری‌های قدرتمند هوش مصنوعی امروزی، با دریافت حجم عظیمی از داده‌های نظارتی و گزارش‌های جرم، تحلیل‌های بسیار دقیق‌تری ارائه می‌دهند.
ادارات پلیس از این تکنیک‌ها برای تعیین محل تمرکز منابع خود استفاده می‌کنند. پیش‌بینی مکان‌محور بر شناسایی مکان‌های پرریسک، معروف به نقاط داغ، که از نظر آماری احتمال وقوع جرم در آن‌ها بیشتر است، تمرکز دارد. در مقابل، پیش‌بینی فردمحور تلاش می‌کند افرادی را که در معرض خطر بالای ارتکاب جرم یا قربانی شدن هستند، شناسایی کند.
این سیستم‌ها موضوع نگرانی‌های عمومی قابل‌توجهی بوده‌اند. در برنامه‌ای به نام «پلیس اطلاعات‌محور» در شهرستان پاسکو، فلوریدا، اداره کلانتری فهرستی از افرادی که احتمال ارتکاب جرم داشتند تهیه کرد و سپس مکرراً مأموران را به خانه‌های آن‌ها فرستاد. بیش از ۱۰۰۰ نفر از ساکنان پاسکو، از جمله افراد زیر سن قانونی، تحت بازدیدهای تصادفی مأموران پلیس قرار گرفتند و برای مواردی مانند نبود شماره صندوق پستی یا علف‌های بیش از حد بلند جریمه شدند.
چهار نفر از ساکنان در سال ۲۰۲۱ از این شهرستان شکایت کردند و سال گذشته به توافقی رسیدند که در آن اداره کلانتری پذیرفت که حقوق constitutional ساکنان به حریم خصوصی و رفتار برابر تحت قانون را نقض کرده است. این برنامه از آن زمان متوقف شده است.
پلیس هوش مصنوعی
این فقط مشکل فلوریدا نیست. در سال ۲۰۲۰، شیکاگو «فهرست سوژه‌های استراتژیک» خود را که در آن پلیس از تحلیل داده‌ها برای پیش‌بینی افرادی که احتمال ارتکاب جرم جدید یا قربانی تیراندازی‌های آینده داشتند استفاده می‌کرد، کنار گذاشت. در سال ۲۰۲۱، اداره پلیس لس‌آنجلس استفاده از نرم‌افزار PredPol را که برای پیش‌بینی نقاط داغ جرم طراحی شده بود اما به دلیل دقت پایین و تقویت تبعیض‌های نژادی و اقتصادی مورد انتقاد قرار گرفت، متوقف کرد.
 
نوآوری‌های ضروری یا زیاده‌روی خطرناک؟
شکست این برنامه‌های برجسته یک تنش حیاتی را برجسته می‌کند: اگرچه نهادهای مجری قانون اغلب از ابزارهای مبتنی بر هوش مصنوعی برای ایمنی عمومی دفاع می‌کنند، گروه‌های حقوق مدنی و پژوهشگران نگرانی‌هایی در مورد نقض حریم خصوصی، مسائل پاسخگویی و کمبود شفافیت مطرح کرده‌اند. با وجود این عقب‌نشینی‌های برجسته از پلیس پیش‌بینی‌کننده، بسیاری از ادارات پلیس کوچک‌تر همچنان از این فناوری استفاده می‌کنند.
بیشتر ادارات پلیس آمریکا سیاست‌های روشنی در مورد تصمیم‌گیری الگوریتمی ندارند و اطلاعات کمی درباره نحوه توسعه، آموزش یا نظارت بر دقت و سوگیری مدل‌های پیش‌بینی‌کننده‌ای که استفاده می‌کنند ارائه می‌دهند. تحلیل مؤسسه بروکینگز نشان داد که در بسیاری از شهرها، دولت‌های محلی هیچ مستندات عمومی درباره نحوه عملکرد نرم‌افزارهای پلیس پیش‌بینی‌کننده، داده‌های استفاده‌شده یا نحوه ارزیابی نتایج ندارند.
این عدم شفافیت در صنعت به‌عنوان «جعبه سیاه» شناخته می‌شود. این امر مانع نظارت مستقل می‌شود و سؤالات جدی درباره ساختارهای اطراف تصمیم‌گیری مبتنی بر هوش مصنوعی ایجاد می‌کند. اگر شهروندی توسط یک الگوریتم به‌عنوان فردی پرریسک علامت‌گذاری شود، چه راه‌حلی دارد؟ چه کسی بر عادلانه بودن این سیستم‌ها نظارت می‌کند؟ چه مکانیزم‌های نظارتی مستقلی در دسترس هستند؟
این سؤالات بحث‌های جنجالی را در جوامع درباره این‌که آیا روش پلیس پیش‌بینی‌کننده باید اصلاح، تنظیم دقیق‌تر یا کاملاً کنار گذاشته شود، به راه انداخته است. برخی این ابزارها را نوآوری‌های ضروری می‌دانند، در حالی که دیگران آن‌ها را زیاده‌روی خطرناک می‌بینند.
راه بهتری در سن خوزه

اما شواهدی وجود دارد که ابزارهای داده‌محور مبتنی بر ارزش‌های دموکراتیک مانند روند عادلانه، شفافیت و پاسخگویی می‌توانند جایگزین قوی‌تری برای سیستم‌های پلیس پیش‌بینی‌کننده امروزی ارائه دهند. اگر عموم مردم بتوانند بفهمند این الگوریتم‌ها چگونه کار می‌کنند، به چه داده‌هایی وابسته هستند و چه حفاظ‌هایی برای جلوگیری از نتایج تبعیض‌آمیز و سوءاستفاده از فناوری وجود دارد، چه می‌شود؟
شهر سن خوزه، کالیفرنیا، فرآیندی را آغاز کرده است که هدف آن افزایش شفافیت و پاسخگویی در استفاده از سیستم‌های هوش مصنوعی است. سن خوزه مجموعه‌ای از اصول هوش مصنوعی را حفظ می‌کند که کمک می‌کند هر ابزار هوش مصنوعی مورد استفاده توسط دولت شهر مؤثر، شفاف برای عموم و عادلانه در تأثیراتش بر زندگی مردم باشد. همچنین ادارات شهر موظف‌اند پیش از ادغام سیستم‌های هوش مصنوعی در عملیات خود، خطرات آن‌ها را ارزیابی کنند.
اگر این اقدامات به‌درستی انجام شوند، می‌توانند جعبه سیاه را باز کنند و به‌طور چشمگیری توانایی شرکت‌های هوش مصنوعی برای مخفی کردن کد یا داده‌هایشان پشت چیزهایی مانند حفاظت از اسرار تجاری را کاهش دهند. بررسی عمومی داده‌های آموزشی می‌تواند مشکلاتی مانند سوگیری نژادی یا اقتصادی را آشکار کند، که می‌توان آن‌ها را کاهش داد، اما اگر غیرممکن نباشد، حذف کامل آن‌ها بسیار دشوار است.
تحقیقات نشان داده‌اند که وقتی شهروندان احساس می‌کنند نهادهای دولتی عادلانه و شفاف عمل می‌کنند، احتمال بیشتری دارد که در زندگی مدنی مشارکت کنند و از سیاست‌های عمومی حمایت کنند. نهادهای مجری قانون اگر فناوری را به‌عنوان ابزاری − و نه جایگزینی − برای عدالت در نظر بگیرند، احتمالاً نتایج بهتری خواهند داشت.
 
 

ارتباط با تبریز امروز

اخبار ، گزارشات ، عکسها و فیلم های خود را برای ما ارسال دارید . برای ارسال میتوانید از طریق آدرس تلگرامی یا ایمیل استفاده کنید.

info@tabriz-emrooz.ir

اشتراک در خبرنامه

برای اطلاع از آخرین خبرهای تبریز امروز در کانال تلگرام ما عضو شوید.

کانل تلگرام تبریز امروز

فرم تماس با تبریز امروز

کلیه حقوق این سایت متعلق به پایگاه خبری تبریز امروز بوده و استفاده از مطالب آن با ذکر منبع بلامانع است.
طراحی وتولید توسططراح وب سایت