ازآنجاییکه هوش مصنوعی بهمنظور جایگزینی یا تکمیل فعالیتهای انسانی استفاده میشود، مدیران باید از تأثیر آن بر تصمیمگیریهای خود دربارهٔ کارکنان، مشتریانی که از محصولات آنها استفاده میکنند و درکل تمامی افراد جامعه آگاه باشند. با در نظر گرفتن تمامی این موارد، مدیران باید در اندیشه و عمل خود، اثرات خارجی هوش مصنوعی، بهخصوص اثرات منفی آن، را فراتر از حوزهٔ درونی سازمان و مدلهای تجاری خود در نظر بگیرند. سازمانها در وهلهٔ اول با مسائل مهمی در ارتباط با رعایت انصاف در الگوریتمهای خود مواجه میشوند، که بستگی به سوگیری مجموعهدادههای مورداستفاده برای آموزش آنها دارد. دوم، ازآنجاییکه الگوریتمهای هوش مصنوعی درحال ادغام در فرایندهای تصمیمگیری هستند، درصورت بروز نتایج نامطلوب میبایست بهدرستی با مسائل مرتبط با مسئولیتپذیری مواجه شد. سوم، مدیران تنها درصورتی به سیستمهای هوش مصنوعی اعتماد و اتکا میکنند که برای آنها شفافیت و توجیهپذیری داشته (قابلیت توضیح چگونگی دستیابی به نتایج مشخص) باشد. چهارم، مدیران باید از پیامدهای اخلاقی استفاده از سیستمهای مبتنی بر ارزش (تابع مطلوبیت) که الگوریتمهای هوش مصنوعی برمبنای آنها طراحی میشوند، آگاه باشند. درنهایت، مدیران باید از یک حکمت عملی پیروی کنند که منافع تمامی ذینفعان سازمان را در نظر بگیرد. با در نظر گرفتن وضعیت فعلی فناوری هوش مصنوعی، مشکل امروز سازمانها احتمال دستیابی سیستمهای هوش مصنوعی به یک قدرت فوقانسانی و پیشیگرفتن از کنترل انسانی نیست، بلکه برعکس، نداشتن قابلیتهای انسانی ذاتی مانند کلینگری (تعمیم)، تفکر انتزاعی و توانایی قیاس است. الگوریتمهای هوش مصنوعی هنوز قابلیت درک موضوعاتی را که انسان درک میکند، ندارند و این میتواند عواقب خطرناکی داشته باشد. این محدودیتهای هوش مصنوعی مستقیماً به کیفیت دادههای مورداستفاده برای آموزش و طراحی الگوریتمهای آنها مربوط میشود. بنابراین سازمانها باید قبلاز استقرار این فناوری، ابتدا از کیفیت دادههای خود مطمئن شوند. موضوع «داده در جهت منافع» جنبشی است که بهتازگی در زمینههای علمی و فنی بهعنوان اصلی برای استفادهٔ مناسب از دادهها در کل چرخهٔ عمر آنها به راه افتاده است. در مدیریت نیز باید چنین اصلی وجود داشته باشد، تا هنگام استفاده از هوش مصنوعی در تصمیمگیریها و ارائهٔ محصولات و خدمات شرکتها سرلوحهٔ کار قرار گیرد. این اصل اساسی در استفاده از دادهها و طراحی الگوریتمها همچنین با نام اختصاری F.A.T.E شناخته میشود:
- انصاف: سوگیری موجود در مجموعهدادههای مورداستفاده برای آموزش الگوریتمهای هوش مصنوعی؛
- مسئولیتپذیری: پذیرش مسئولیت تصمیمات مبتنی بر مدلهای هوش مصنوعی؛
- شفافیت: قابلیت توضیح مدلهای هوش مصنوعی؛
- اخلاق: ارزشهایی که سیستمهای هوش مصنوعی بر پایهٔ آنها طراحی شدهاند؛
- حکمت عملی: قضاوت مناسب مدیریت درمورد استفاده یا عدم استفاده از هوش مصنوعی براساس منافع تمامی ذینفعان.
انصاف
هوش مصنوعی فناوری قدرتمندی است که باید برای ارائهٔ خدمات بهتر به مشتریان و تقویت بینشهای سازمانی مورد استفاده قرار گیرد. اما چنین منافعی باید با رعایت انصاف و اجتناب از تحمیل هرگونه بیعدالتی تحقق پذیرد. در اینجا منظور از رعایت انصاف این است که مدلهای مبتنی بر هوش مصنوعی باید پیشبینیهایی عاری از تعصب را ارائه کنند. یک نمونهٔ بارز از این موضوع، موتور جستجوی تصاویر گوگل است که وقتی عبارت «مدیرعامل» را در آن جستجو میکنیم، تصاویری بیشمار از مردانی را در کت و شلوار رسمی نشان میدهد. این نشان میدهد که بهطور سنتی در شرایط برابر، زنان برای رسیدن به موقعیتهای ارشد سازمانی با مشکلات عدیدهای نسبتبه مردان مواجه بودهاند. در این مورد، دادههای بهکاررفته در آموزش الگوریتم شامل تعصب جنسیتی ناشی از سهم بالاتر مردان نسبتبه زنان در جایگاههای مدیریتی است. سوگیری مدلهای هوش مصنوعی حاصل آموزش الگوریتم با دادههاست یا از خود الگوریتم ناشی شود. بااینحال، الگوریتمها منعکسکنندهٔ ارزشهای افرادی هستند که آنها را طراحی و کدگذاری کردهاند، موضوعی که متعاقباً در ارتباط با پیامدهای اخلاقی هوش مصنوعی به آن خواهیم پرداخت. به همین علت، سازمانها باید توجه ویژهای را به سوگیریهای اعمالشده در مجموعهدادههای مورداستفاده برای آموزش الگوریتمها معطوف دارند. گرچه بسیاری از سیستمهای مبتنی بر این فناوری با حسننیت ساخته شدهاند، میتوانند تأثیرات مستقیم و فزایندهای بر زندگی انسانها داشته باشند. ازاینرو تمامی سازمانها باید به موضوع سوگیری دادهها توجه کنند، چراکه مسئولیت پیامدهای مختلف آن در حوزههایی مانند دسترسی به مسکن، اعمال قانون و استخدام برعهدهٔ آنهاست. در آخر میتوان گفت سوگیری در مدلهای هوش مصنوعی ممکن است با عواقب جدیتری همراه بوده و با القای باورهای نادرست موجب انگزنی به گروههایی از جامعه شود.
مسئولیتپذیری
مسئولیتپذیری همواره بهعنوان یکی از مهمترین مفاهیم مدیریتی شناخته میشود. همانطورکه پیتر دراکر (1973) میگوید: «رهبران هر سازمان، مسئول و پاسخگوی عملکرد عوامل خود و همچنین مسئول کل جامعه هستند». بنابراین، مسئولیتپذیری مستلزم تصدیق و پذیرش تعهدات مرتبط با اقدامات، محصولات و تصمیماتی است که در حوزهٔ مدیریت قرار میگیرند. اما مسئولیتپذیری درزمینهٔ هوش مصنوعی با چالشهای بیشتری همراه است، زیرا پشت هر تصمیم یا محصولی، دادهها و الگوریتمهایی نیز وجود دارند. سازمانها باید برای شکل دادن به این پیامدها و تعیین سیاستهای منطبق با معیارهای اجتماعی خارجی، مسئولیتهای خود را بپذیرند. آنها باید سیستمها و برنامههای آموزشی لازم برای استفاده از ابزارهای هوش مصنوعی و پذیرش مسئولیتهای ناشی از نتایج آن را برای مدیران اجرا کنند.
شفافیت
سومین اصل راهنما در رابطه با استفاده از هوش مصنوعی، شفافیت است. سازمانها تنها زمانی میتوانند سیستمهای هوش مصنوعی را پیادهسازی کنند که از شفافیت لازم برخوردار بوده و بهجای آنکه مانند یک «جعبهٔ سیاه» تنها ورودیها و خروجیهای آنها قابل مشاهده باشد، نحوهٔ دستیابی به نتایج را بهروشنی توضیح دهند. شفافیت همچنین درخصوص رعایت عدالت درمورد تمامی افرادی که تحت تأثیر نتایج هوش مصنوعی قرار میگیرند، لازم است. شفافیت برای بسیاری از سازمانها چالشبرانگیز است، زیرا با ارائهٔ مدلهای هوش مصنوعی خود، ناگزیر باید سرمایهٔ فکری (دارایی معنوی) خود را نیز افشا کنند. ازاینرو، شفافسازی در شرایطی که سازمانها ملزم به توضیح میشوند، یا نیاز به شرح دقیق عملکرد داخلی سیستم یا به عبارت دیگر، توجیه نتایج خروجی خود پیدا میکنند، بسیار حائز اهمیت است. از این گذشته، مقررات جدید GDRP اتحادیهٔ اروپا شامل «حق توضیح» با ارائهٔ «اطلاعات دقیق دربارهٔ منطق بهکاررفته» در سیستم است. بهدلیل ماهیت الگوریتمهای هوش مصنوعی امروزی، بهخصوص آنهایی که مبتنی بر شبکههای عصبی عمیق هستند، تابهحال درک نحوهٔ دستیابی به نتایج نهایی آنها تقریباً غیرممکن بوده است. اما با افزایش روزافزون اهمیت توجیهپذیری این سیستمها، محققان درحال تلاش برای ارائهٔ سازوکارهایی هستند که بتوان بهکمک آنها عملکرد الگوریتمهای هوش مصنوعی را توضیح داد. سازمانها باید متخصصان جدیدی را موسوم به «توضیحدهندگان هوش مصنوعی» به استخدام خود درآورند، که نقش اصلی آنها توضیح عملکرد داخلی الگوریتمهای پیچیدهٔ هوش مصنوعی است.
اخلاق
اصل راهنمای چهارم در استفاده از هوش مصنوعی، اخلاق است. ازآنجاییکه انسانها روزبهروز بیشتر تصمیمات خود را به سیستمهای هوش مصنوعی واگذار میکنند، دیر یا زود با معضلات اخلاقی ناشی از آن مواجه خواهیم شد. اورن اتزیونه، استاد دانشگاه واشنگتن و مدیر اجرایی مؤسسهٔ آلن، با الهام از سه قانون رباتیک معروف آسیموف، سه قانون اخلاقی را درمورد هوش مصنوعی پیشنهاد میکند. قانون اول بیان میکند که «هر سیستم هوش مصنوعی باید تابع تمامی قوانینی باشد که برای عملگر انسانی آن تعیین شده است». قانون دوم توضیح میدهد که «هر سیستم هوش مصنوعی باید بهوضوح نشان دهد که انسان نیست». و قانون سوم این است که «هیچ سیستم هوش مصنوعی نباید اطلاعات محرمانه را بدون تأیید صریح منبع آن، حفظ یا افشا کند».
حکمت عملی
چهار اصل راهنمای قبلی یعنی انصاف، مسئولیتپذیری، شفافیت و اخلاق، بر اثرات بیرونی هوش مصنوعی بر کارکنان، مشتریان و کل جامعه متمرکز بودند. بااینحال، ما از دیدگاه مدیریت عمومی پیشنهاد میکنیم که اصل دیگری نیز به آنها اضافه شود: حکمت عملی. این مفهوم یک فضیلت اخلاقی است و به دانش یا درکی اشاره دارد که فرد را قادر به «انجام کار درست» در هر شرایطی میکند.
باید توجه داشت که از هوش مصنوعی برای تولید و هدایت سلاحهای کشتار جمعی نیز میتوان استفاده کرد. در نوامبر 2018، مجمع جهانی اقتصاد در نشست سالانهٔ شوراهای آیندهٔ جهانی اظهار داشت: «چارچوبهای اخلاقی، استانداردهای هنجاری و مدلهای حکمرانی ارزشمحور باید شفافتر بیان شوند، تا به سازمانها درزمینهٔ توسعه و استفاده از این ابزار قدرتمند در جامعه و اتخاذ رویکردی انسانمحور و فراتر از مرزهای جغرافیایی و سیاسی کمک کنند». این بیانیه اشاره به تمرکز بیشتر بر اثرات هوش مصنوعی بر افراد داشته و مفهوم حقوق بشر را به حوزهٔ دیجیتال تعمیم میدهد. موضوعی که دراصل یازدهم هوش مصنوعی آسیلومار نیز منعکس شده است: «سیستمهای هوش مصنوعی باید طوری طراحی و اجرا شوند که با آرمانهای کرامت انسانی، حقوق، اختیارات و تنوع فرهنگی سازگار باشند.»
ازاینرو، سازمانهایی که از فناوری هوش مصنوعی در گزارهٔ ارزش یا فرایند تصمیمگیری خود استفاده میکنند، باید نقشی جدید موسوم به «نگهدارندگان هوش مصنوعی» را نیز به سازمان اضافه کنند تا اطمینان یابند که هر سیستم هوش مصنوعی با هدف خدمت به انسانها عمل میکند. نقش نگهدارندگان هوش مصنوعی میتواند شامل فعالیتهایی گسترده همچون تعیین محدودیتهایی برای هوش مصنوعی درخصوص رعایت قوانین حقوقی و اخلاقی، مدیریت عملکرد هوش مصنوعی و بررسی کیفیت خروجی آن باشد.
در سطح مدیریتی، علاوهبر کنترل خروجیهای هوش مصنوعی در سازمان، تصمیم دربارهٔ استفاده یا عدم استفاده از این فناوری نیز باید با قضاوت مدیران باشد؛ چراکه این مدیران باید منافع تمامی ذینفعان را مبنای عمل قرار دهند. این کار مستلزم مدیریت سیستمی پیچیده و متعامل است: پیکربندی سازمان، محیط داخلی، محیط خارجی و تجارت. اینها چهار مسئولیت اصلی مدیران را تشکیل میدهند. قضاوت در این زمینه باید برمبنای مأموریت یا علت وجودی اصلی شرکت صورت گیرد. بنابراین، پیشنهاد ما این است که اصل حکمت عملی نیز که به مسئولیتهای اصلی مدیران مربوط میشود، به اصول راهنمای استفاده از دادهها و طراحی الگوریتمها اضافه شود.
کتابهای مرتبط
آیندۀ مدیريت در عصر هوش مصنوعی
211,000 توماننام مولف |
جوردی کانالز, فرانز هیوکامپ |
---|---|
نام مترجم |
مهدیه ویشقلی, میرعلی سیدنقوی |
شابک |
9786227239966 |
تعداد صفحه |
343 |
سال انتشار |
1401 |
نوبت چاپ |
اول |
قطع کتاب |
وزیری |
نوع جلد |
شومیز |