شنبه ۲۵ فروردین ۱۴۰۳
در استفاده از هوش مصنوعی اخلاق را رعایت کنید

مشتریان راضی نیستند که شرکت‌ها بدون اطلاع آنها از روبات‏‏‌های هوش مصنوعی استفاده کنند

در استفاده از هوش مصنوعی اخلاق را رعایت کنید

سال‏‏‌ها قبل گمانه‏‏‌زنی درباره وضعیت کسب و کارها در جهان دیجیتال شروع شده بود. همه می‏‏‌دانستند پیشرفت‏‏‌های فناوری به سمتی می‏‏‌رود که شاهد تحولاتی عظیم در کسب و کارها و مشاغل خواهیم بود.

انتظار می‏‏‌رفت تغییر زیرساخت‏‏‌ها، معرفی ابزارهای جدید، ظهور هوش مصنوعی و افزایش کارکرد روبات‏‏‌ها، مشاغل بسیاری را تغییر دهد و عده‏‏‌ای را با تعدیل اجباری به سمت مشاغل جدید هدایت ‏‏‌کند. مقاله پیش‏‏‌ رو از یافته و مشکلی غیرمنتظره پرده برمی‏‏ دارد: نه‏‏‌تنها برخی شغل‏‏‌ها تغییر می‏‏‌کنند، بلکه در صورت اشتباه مدیران و کارکنانشان، پیدا کردن شغل جدید هم دشوارتر از حد تصور می‌شود.

در عصر دیجیتال کنونی، نوآوری‌‌‌هایی مانند هوش مصنوعی به شدت فضای کسب و کار را دگرگون کرده است. در هر گروه و فضایی می‌توانید افراد فراوانی را مشاهده کنید که در حال صحبت درباره قابلیت‌‌‌های چنین فناوری‌‌‌هایی هستند یا هم‌‌‌اکنون نیز بخش زیادی از وظایف کاری خود را با آنها انجام می‌‌‌دهند. هوش مصنوعی برای کسب و کارها نیز کاربردهای فراوانی دارد.

به عنوان مثال، به وسیله روبات‌‌‌های گفت‌‌‌وگو با مشتریان، می‌توان به طور همزمان به نیازهای تعداد بسیار بیشتری از مشتریان رسیدگی کرد، هزینه پشتیبانی را کاهش داد و خدمات را همسان‌‌‌تر کرد. با این حال، در میان تمام این مزایا، تنگنایی اخلاقی نهفته است.

مشتریان شیفته تعاملات انسانی صادقانه هستند و زمانی که متوجه شوند به برخی پیام‌‌‌ها و تماس‌‌‌های آنها روبات‌‌‌ها به جای انسان پاسخ می‌‌‌دهند، به‌‌‌سرعت دلسرد خواهند شد. ایجاد توازن بین میل به اصالت و وسوسه‌‌‌های فناوری و صرفه‌‌‌های اقتصادی آن، دشوار است و شاید برخی کسب و کارها را به سمت فریب مشتریانشان سوق دهد.

شرایط از آنجا پیچیده‌‌‌تر شده است که اکنون بسیاری از ابزارهای هوش مصنوعی شباهت بیشتری به انسان پیدا کرده‌‌‌اند. این شرایط، وسوسه استخدام روبات‌‌‌ها و هوش مصنوعی به جای انسان را ایجاد کرده است. البته به راحتی نمی‌توان چنین تصمیمی اتخاذ کرد.

به هر حال، مشتریان تعاملات انسانی را ترجیح می‌‌‌دهند و اگر شرکتی بخواهد در حوزه‌‌‌هایی مانند خدمات پشتیبانی مشتریان از روبات‌‌‌های گفت‌‌‌وگو استفاده کند، این کار را باید به شکلی انجام دهد که مشتریان متوجه آن نشوند.

مشکل استفاده از روبات‌‌‌های گفت‌‌‌وگو بدون افشای آن برای مشتریان چیست؟ زمانی که مشتریان از این اقدام فریبنده مطلع شوند، چه اتفاقی برای اعتبار شرکت می‌‌‌افتد؟ مهم‌تر آنکه چه اتفاقی برای کارکنان آن شرکت می‌‌‌افتد؟ تاکنون چند شرکت بزرگ فناوری با پیامدهای این‌‌‌گونه استفاده غیراخلاقی از فناوری‌‌‌های نوظهور مواجه شده‌‌‌اند.

برای درک بهتر، به مثال شرکت فناوری‌‌‌های پزشکی ترانوس (Theranos) توجه کنید. این شرکت رسوایی بزرگی بابت کلاهبرداری و سوءرفتار تجربه کرد. در حالی که شرکت و مدیرانش درگیر اتهامات و پرونده‌‌‌های قضایی مختلف شدند، کارکنان آنها نیز آسیب دیدند.

بسیاری از کارکنان شرکت اعلام کردند که به سختی شرکت‌های دیگر حاضر به استخدام آنها می‌‌‌شوند و کارفرمایان بالقوه به آنها اعتماد نمی‌‌‌کنند. از آنجا که شرکت‌ها در مقابل کارکنان خود مسوولیت دارند، پیش از تصمیم‌گیری برای هرگونه استفاده غیرشفاف از فناوری‌‌‌ها، باید پیامدهای احتمالی آن بر اعتبار و آینده کارکنانشان را هم در نظر بگیرند. ما برای درک پیامدهای رفتار غیرشفاف شرکت‌ها بر آینده شغلی کارکنانشان، چند پژوهش و مطالعه میدانی داشته‌‌‌ایم.

اثر دومینویی بر آینده شغلی

نخستین یافته ما، جای تعجب ندارد. مشتریان، شرکت‌هایی را که بدون شفافیت و اطلاع آنها از روبات و هوش مصنوعی استفاده می‌‌‌کنند، چندان شرکت‌های اخلاق‌‌‌مداری نمی‌‌‌دانند. واضح است که اگر به بی‌‌‌اخلاقی در استفاده از فناوری‌‌‌های جدید شهرت یابید، وجهه اجتماعی‌‌‌تان به‌‌‌شدت آسیب می‌‌‌بیند.

مساله این است که تصور افکار عمومی از چنین شرکتی چه می‌شود؟ تجربه اوبر می‌تواند ما را برای پاسخ دادن به این پرسش راهنمایی کند. رسوایی این شرکت تاکسی اینترنتی آمریکایی در سرکوب اتهامات آزار جنسی، به شدت وجهه عمومی این شرکت را مخدوش کرد.

واکنش‌‌‌ها چنان نسبت به همه کارکنان اوبر منفی شد که حتی کارکنان بی‌‌‌گناه هم از نگاه سرد جامعه مصون نماندند. در نتیجه، بسیاری از آنها تصمیم به استعفا گرفتند.

ما برای اطمینان یافتن از این فرضیه خود، پژوهش‌‌‌های بسیاری انجام دادیم. در پژوهش‌‌‌های خود، شبیه‌‌‌سازی‌‌‌هایی انجام دادیم و از کارکنان چند شرکت فرضی خواستیم تا به راه‌‌‌اندازی مخفیانه روبات‌‌‌های گفت‌‌‌وگو کمک کنند.

هضم این درخواست برای کارکنان دشوار بود و مانند آن بود که اقدامی غیراخلاقی از آنها خواسته شده است. در نتیجه این طرز فکر، بسیاری از آنها خواهان استعفا از شغل خود شدند.

بنابراین، شرکت‌هایی که وانمود به انسان بودن روبات‌‌‌های گفت‌‌‌وگویشان می‌‌‌کنند، در چشم مشتریان و همچنین کارکنانشان، شرکت‌هایی غیراخلاقی به نظر می‌‌‌رسند. مشتریان هیچ وفاداری به آنها نخواهند داشت و کارکنان نیز میل بیشتری به استعفا نشان خواهند داد.

اما این کارکنان کجا خواهند رفت؟ آیا آنها به خاطر حضور در بازار کار، آلوده شده‌‌‌اند؟ بله. به دلیل سرعت بالای انتشار اطلاعات در عصر جاری، هر رفتاری از شرکت‌ها به سرعت برملا می‌شود و به اعتبار کارکنانشان هم آسیب می‌‌‌زند.

ما در تلاش برای درک بهتر این پدیده، دو پژوهش دیگر هم انجام دادیم. هدف ما بررسی این موضوع بود که کارکنان استعفا داده از چنین شرکت‌هایی، در چشم کارفرمای بعدی چگونه به نظر می‌‌‌رسند.

نتایج پژوهش‌‌‌ها نشان داد که متقاضیان شغلی که سابقه کار در شرکت‌هایی با روبات گفت‌‌‌وگوی مخفیانه دارند، چندان قادر به جلب اعتماد تصمیم‌گیرندگان فرآیندهای استخدامی نیستند.

در نتیجه به ندرت شغل جدیدی در شرکت‌های دیگر به آنها پیشنهاد می‌شود و حتی در صورت پیشنهاد شغل، حقوق کمتری به آنها تعلق می‌گیرد.

از این‌رو، استفاده فریبکارانه از روبات‌‌‌های گفت‌‌‌وگو، پیامدهای بسیار گسترده‌‌‌ای به جای می‌‌‌گذارد. چنین اقدامی نه تنها به شرکت آسیب می‌‌‌زند، بلکه بر سرنوشت تمام افراد شاغل در آن شرکت نیز اثر منفی می‌‌‌گذارد.

مسوولیت متخصصان فناوری

وضعیت روشن است. متخصصان فناوری باید طلایه‌‌‌داران استفاده اخلاقی از هوش مصنوعی باشند. ما نمی‌توانیم اثرات اجتماعی گسترده اختراعات خود را نادیده بگیریم. اگر با شفافیت کار کنید و به اصول اخلاقی پایبند باشید، نه‌تنها به اعتبار و وجهه عمومی شرکت‌هایتان کمک خواهید کرد، بلکه جایگاه حرفه‌‌‌ای خود را هم تحکیم خواهید کرد. یافته‌‌‌های پژوهش‌‌‌های ما، دو درس کاربردی مهم در خود دارند:

۱- نقش رهبران سازمانی

رهبران سازمانی باید متوجه آسیب‌‌‌های ماندگار رفتارهای فریبکارانه در قبال مشتریان باشند. استفاده اخلاقی از فناوری‌‌‌ها می‌تواند شهرت شرکت، روحیه کارکنان و اعتماد مشتریان را تقویت کند.

۲- نقش کارکنان

کارکنان نیز باید انفعال و بی‌‌‌تفاوتی را کنار بگذارند. شیوه فعالیت شرکت نه تنها مسوولیتی اخلاقی برای آنها دارد، بلکه بر سرنوشت و آینده شغلی‌‌‌شان اثر می‌‌‌گذارد. به همین دلیل توصیه می‌شود که کارکنان، فعالانه از نگرانی‌‌‌های خود درباره استفاده غیراخلاقی فناوری‌‌‌ها سخن بگویند.

 در صورتی هم که شرکت آنها رفتارش را اصلاح نکرد، پیش از برملا شدن داستان، استعفا دهند. نگرانی‌‌‌ها را به شیوه‌‌‌های مختلفی می‌توان بیان کرد: در نامه‌‌‌های بی‌‌‌نام، در جلسات خصوصی با مدیر، به طور علنی در جلسات تیم یا گردهمایی‌‌‌های سازمانی. هرکدام از این روش‌‌‌ها مزیت‌‌‌های خاص خود را دارند و باید مدنظر قرار گیرند (هرچند شاید بهتر باشد ابتدا روش‌‌‌های ساده‌‌‌تر و سریع‌‌‌تر ابراز نگرانی در نظر گرفته شوند.)

در جمع‌‌‌بندی مباحث این مقاله، باید گفت که به موازات افزایش کاربرد هوش مصنوعی در کسب و کارها، استفاده اخلاقی از آنها اهمیت بیشتری می‌‌‌یابد. بحث ما بر سر سودآوری شرکت نیست، بلکه پای آینده شغلی و اعتبار تمام افراد، به عنوان تشکیل‌‌‌دهندگان سازمان در میان است. اولویت دادن به اخلاقیات در استفاده از هوش مصنوعی، تنها یک توصیه کسب و کاری نیست، بلکه یک الزام شغلی است.

منبع


ویکی پلاست | مرجع بازار صنعت پلاستیک

آیا این مطلب برای شما مفید بود؟ بلی خیر
امتیاز مطلب: 100%

نظرات کاربران

ارسال دیدگاه
همه حقوق این سایت متعلق به ویکی پلاست است طراحی و اجرا: نگاه حرفه ای
قیمت بازار اشتراک قیمت کانال تلگرام تبلیغات
بسپار تجارت آسیا؛ تولید و صادرات کامپاندهای پلیمری قیمت بازار قیمت جهانی تلگرام واتس اپ تبلیغات
ویکی پلاست
سلام خوش اومدید
ویکی پلاست، خرید و فروش مواد اولیه نداره
چطور می تونم کمک‌تون کنم؟