5 مهر 1402
فروپاشی چند میلیارد دلاری FTX - صرافی پرمخاطب ارزهای دیجیتال که اکنون بنیانگذار آن به اتهام کلاهبرداری منتظر محاکمه است - به عنوان یادآوری آشکار از خطرات فریب در دنیای مالی است. دادستان ها می گویند که دروغ های سام بنکمن-فرید، بنیانگذار FTX، به ابتدای کار این شرکت باز می گردد. ادعا می شود که او به طور یکسان به مشتریان و سرمایه گذاران دروغ گفته است، به عنوان بخشی از آنچه دامیان ویلیامز، دادستان ایالات متحده آن را "یکی از بزرگترین کلاهبرداری های مالی در تاریخ آمریکا" نامیده است. چگونه بسیاری از مردم ظاهرا فریب خوردند؟ مطالعه جدیدی در مجله مدیریت استراتژیک تا حدودی این موضوع را روشن می کند. در آن، من و همکارانم متوجه شدیم که حتی تحلیلگران مالی حرفهای هم به دروغهای مدیر عامل گول میخورند – و این که معتبرترین تحلیلگران ممکن است ساده لوحترین باشند. تحلیلگران مالی توصیه های تخصصی برای کمک به شرکت ها و سرمایه گذاران برای کسب درآمد می کنند. آنها پیشبینی میکنند که یک شرکت چقدر درآمد خواهد داشت و پیشنهاد میکند سهام آن را بخرد یا بفروشد. آنها با هدایت پول به سمت سرمایه گذاری های خوب، نه تنها به تک تک مشاغل بلکه به رشد کل اقتصاد کمک می کنند.
تبریز امروز:
تاریخ انتشار: 27 سپتامبر 2023
استیون جی. هاید
استادیار مدیریت، دانشگاه ایالتی بویز
فروپاشی چند میلیارد دلاری FTX - صرافی پرمخاطب ارزهای دیجیتال که اکنون بنیانگذار آن به اتهام کلاهبرداری منتظر محاکمه است - به عنوان یادآوری آشکار از خطرات فریب در دنیای مالی است.
دادستان ها می گویند که دروغ های سام بنکمن-فرید، بنیانگذار FTX، به ابتدای کار این شرکت باز می گردد. ادعا می شود که او به طور یکسان به مشتریان و سرمایه گذاران دروغ گفته است، به عنوان بخشی از آنچه دامیان ویلیامز، دادستان ایالات متحده آن را "یکی از بزرگترین کلاهبرداری های مالی در تاریخ آمریکا" نامیده است.
چگونه بسیاری از مردم ظاهرا فریب خوردند؟
مطالعه جدیدی در مجله مدیریت استراتژیک تا حدودی این موضوع را روشن می کند. در آن، من و همکارانم متوجه شدیم که حتی تحلیلگران مالی حرفهای هم به دروغهای مدیر عامل گول میخورند – و این که معتبرترین تحلیلگران ممکن است ساده لوحترین باشند.
تحلیلگران مالی توصیه های تخصصی برای کمک به شرکت ها و سرمایه گذاران برای کسب درآمد می کنند. آنها پیشبینی میکنند که یک شرکت چقدر درآمد خواهد داشت و پیشنهاد میکند سهام آن را بخرد یا بفروشد. آنها با هدایت پول به سمت سرمایه گذاری های خوب، نه تنها به تک تک مشاغل بلکه به رشد کل اقتصاد کمک می کنند.
اما در حالی که تحلیلگران مالی برای مشاوره خود دستمزد دریافت می کنند، آنها اوراکل ( وراکلها خدمات واسطهای هستند که اطلاعات و دادههای مختلف را از دنیای واقعی به بلاک چین و قراردادهای هوشمند وارد میکنند. به عبارت سادهتر اوراکلها پلی میان قراردادهای هوشمند و دادههای خارج از بلاکچین هستند) نیستند. به عنوان یک استاد مدیریت، من متعجب بودم که چند بار آنها توسط مدیران دروغگو گول میخورند - بنابراین من و همکارانم از یادگیری ماشینی برای کشف این موضوع استفاده کردیم. ما الگوریتمی را توسعه دادیم که از سال 2008 تا 2016 بر روی رونوشت تماسهای درآمد S&P 1500 آموزش دیده بود، که میتواند به طور قابل اعتمادی در 84 درصد مواقع فریب را تشخیص دهد. به طور خاص، الگوریتم الگوهای زبانی متمایزی را شناسایی میکند که وقتی فرد دروغ میگوید رخ میدهد.
نتایج ما قابل توجه بود. ما متوجه شدیم که تحلیلگران پس از گوش دادن به مدیران عامل فریبنده - به طور متوسط تقریباً 28 درصد - به جای همتایان صادق تر خود، به احتمال زیاد توصیه های "خرید" یا "خرید قوی" را ارائه می دهند.
ما همچنین متوجه شدیم که تحلیلگران بسیار محترم بیشتر از همتایان کمتر شناخته شده خود با دروغ های مدیر عامل فریب خوردند. در واقع، آنهایی که توسط ناشر تجاری Institutional Investor به عنوان تحلیلگران «همه ستاره» معرفی شدند، 5.3 درصد بیشتر از همتایان کمتر مشهور خود، مدیران عاملی که معمولاً نادرست بودند، ارتقاء دادند.
اگرچه ما از این فناوری برای به دست آوردن بینشی در این گوشه از امور مالی برای یک مطالعه آکادمیک استفاده کردیم، اما استفاده گستردهتر از آن تعدادی سؤال اخلاقی چالشبرانگیز در مورد استفاده از هوش مصنوعی برای اندازهگیری ساختارهای روانشناختی ایجاد میکند.
تعصب نسبت به باور کردن
به نظر می رسد غیر منطقی است: چرا ارائه دهندگان حرفه ای مشاوره مالی به طور مداوم به دام مدیران دروغگو می افتند؟ و چرا به نظر می رسد معتبرترین مشاوران بدترین نتایج را داشته باشند؟
این یافته ها منعکس کننده گرایش طبیعی انسان به این فرض است که دیگران صادق هستند - چیزی که به عنوان "سوگیری حقیقت" شناخته می شود. به لطف این عادت ذهنی، تحلیلگران نیز مانند دیگران مستعد دروغگویی هستند.
علاوه بر این، ما متوجه شدیم که وضعیت برتر باعث تقویت سوگیری حقیقت می شود. اولاً، تحلیلگران «همه ستاره» معمولاً با افزایش اعتبار، احساس اعتماد بیش از حد و استحقاق به دست میآورند. آنها شروع به این باور می کنند که کمتر فریب می خورند و همین امر باعث می شود که مدیران عامل را به صورت واقعی انتخاب کنند. دوم، این تحلیلگران تمایل دارند روابط نزدیک تری با مدیران عامل داشته باشند، که مطالعات نشان می دهد می تواند سوگیری حقیقت را افزایش دهد. این باعث می شود آنها حتی بیشتر مستعد فریب باشند.
با توجه به این آسیبپذیری، کسبوکارها ممکن است بخواهند اعتبار نامهای ستارهای را دوباره ارزیابی کنند. تحقیقات ما همچنین بر اهمیت پاسخگویی در حکمرانی و نیاز به سیستمهای نهادی قوی برای مقابله با سوگیریهای فردی تأکید میکند.
یک "دروغ یاب" هوش مصنوعی؟
ابزاری که ما برای این مطالعه توسعه دادیم می تواند کاربردهایی فراتر از دنیای تجارت داشته باشد. ما الگوریتم را با استفاده از رونوشتهای جعلی، پس گرفتن مقالات در مجلات پزشکی و ویدیوهای فریبنده YouTube تأیید کردیم. به راحتی می توان آن را در زمینه های مختلف مستقر کرد.
توجه به این نکته مهم است که این ابزار به طور مستقیم فریب را اندازه گیری نمی کند. الگوهای زبانی مرتبط با دروغ را شناسایی می کند. این بدان معناست که اگرچه بسیار دقیق است، اما مستعد هر دو جنبه مثبت و منفی کاذب است - و به طور خاص ادعاهای نادرست عدم صداقت می تواند عواقب مخربی داشته باشد.
علاوه بر این، ابزارهایی مانند این تلاش میکنند تا «دروغهای سفید» سودمند اجتماعی - که حس اجتماع و رفاه عاطفی را تقویت میکنند - از دروغهای جدیتر تشخیص دهند. اف
عقب افتادن بی رویه در تمامی فریب ها می تواند پویایی های پیچیده اجتماعی را مختل کند و منجر به عواقب ناخواسته شود.
این مسائل باید قبل از اینکه این نوع فناوری به طور گسترده مورد استفاده قرار گیرد، مورد توجه قرار گیرد. اما این آینده نزدیکتر از آن است که بسیاری تصور کنند: شرکتهایی در زمینههایی مانند سرمایهگذاری، امنیت و بیمه در حال حاضر شروع به استفاده از آن کردهاند.
سوالات بزرگ باقی می ماند
استفاده گسترده از هوش مصنوعی برای دروغ می تواند پیامدهای اجتماعی عمیقی داشته باشد – به ویژه اینکه دروغ گفتن بدون پیامد را برای قدرتمندان سخت تر می کند.
این ممکن است به نظر یک چیز بدون ابهام خوب باشد. اما در حالی که این فناوری مزایای غیرقابل انکاری مانند تشخیص زودهنگام تهدیدات یا تقلب را ارائه می دهد، می تواند فرهنگ شفافیت خطرناکی را نیز به وجود آورد. در چنین دنیایی، افکار و احساسات می توانند مورد سنجش و قضاوت قرار گیرند و حریم خصوصی ذهنی را از بین ببرند.
این مطالعه همچنین سوالات اخلاقی در مورد استفاده از هوش مصنوعی برای اندازه گیری ویژگی های روانشناختی، به ویژه در مواردی که به حریم خصوصی و رضایت مربوط می شود، مطرح می کند. برخلاف تحقیقات فریبکاری سنتی، که به افراد انسانی که رضایت مطالعه را می دهند، متکی است، این مدل هوش مصنوعی به صورت مخفیانه عمل می کند و الگوهای زبانی ظریف را بدون اطلاع گوینده تشخیص می دهد.
پیامدها سرسام آور هستند. به عنوان مثال، در این مطالعه، ما دومین مدل یادگیری ماشینی را برای سنجش میزان سوء ظن در لحن سخنران ایجاد کردیم. دنیایی را تصور کنید که در آن دانشمندان علوم اجتماعی می توانند ابزارهایی برای ارزیابی هر جنبه ای از روانشناسی شما ایجاد کنند و بدون رضایت شما از آنها استفاده کنند. خیلی جذاب نیست، اینطور است؟
همانطور که وارد عصر جدیدی از هوش مصنوعی می شویم، ابزارهای روان سنجی پیشرفته هم نوید و هم خطر را ارائه می دهند. این فناوریها میتوانند با ارائه بینشهای بیسابقهای درباره روانشناسی انسان، تجارت را متحول کنند. آنها همچنین می توانند حقوق مردم را زیر پا بگذارند و جامعه را به شیوه های غافلگیرکننده و نگران کننده بی ثبات کنند. تصمیمهایی که امروز میگیریم - در مورد اخلاق، نظارت و استفاده مسئولانه - مسیر را برای سالهای آینده تعیین میکند.
اخبار ، گزارشات ، عکسها و فیلم های خود را برای ما ارسال دارید . برای ارسال میتوانید از طریق آدرس تلگرامی یا ایمیل استفاده کنید.