بریده‌های کتاب

برخی اصول حاکمیتی مرتبط با هوش مصنوعی

ازآنجایی‌که هوش مصنوعی به‌منظور جایگزینی یا تکمیل فعالیت‌های انسانی استفاده می‌شود، مدیران باید از تأثیر آن بر تصمیم‌گیری‌های خود دربارهٔ کارکنان، مشتریانی که از محصولات آنها استفاده می‌کنند و درکل تمامی افراد جامعه آگاه باشند. با در نظر گرفتن تمامی این موارد، مدیران باید در اندیشه و عمل خود، اثرات خارجی هوش مصنوعی، به‌خصوص اثرات منفی آن، را فراتر از حوزهٔ درونی سازمان و مدل‌های تجاری خود در نظر بگیرند. سازمان‌ها در وهلهٔ اول با مسائل مهمی در ارتباط با رعایت انصاف در الگوریتم‌های خود مواجه می‌شوند، که بستگی به سوگیری مجموعه‌داده‌های مورداستفاده برای آموزش آنها دارد. دوم، ازآنجایی‌که الگوریتم‌های هوش مصنوعی درحال ادغام در فرایندهای تصمیم‌گیری هستند، درصورت بروز نتایج نامطلوب می‌بایست به‌درستی با مسائل مرتبط با مسئولیت‌پذیری مواجه شد. سوم، مدیران تنها درصورتی به سیستم‌های هوش مصنوعی اعتماد و اتکا می‌کنند که برای آنها شفافیت و توجیه‌پذیری داشته (قابلیت توضیح چگونگی دستیابی به نتایج مشخص) باشد. چهارم، مدیران باید از پیامدهای اخلاقی استفاده از سیستم‌های مبتنی بر ارزش (تابع مطلوبیت) که الگوریتم‌های هوش مصنوعی برمبنای آنها طراحی می‌شوند، آگاه باشند. درنهایت، مدیران باید از یک حکمت عملی پیروی کنند که منافع تمامی ذی‌نفعان سازمان را در نظر بگیرد. با در نظر گرفتن وضعیت فعلی فناوری هوش مصنوعی، مشکل امروز سازمان‌ها احتمال دستیابی سیستم‌های هوش مصنوعی به یک قدرت فوق‌انسانی و پیشی‌گرفتن از کنترل انسانی نیست، بلکه برعکس، نداشتن قابلیت‌های انسانی ذاتی مانند کلی‌نگری (تعمیم)، تفکر انتزاعی و توانایی قیاس است. الگوریتم‌های هوش مصنوعی هنوز قابلیت درک موضوعاتی را که انسان درک می‌کند، ندارند و این می‌تواند عواقب خطرناکی داشته باشد. این محدودیت‌های هوش مصنوعی مستقیماً به کیفیت داده‌های مورداستفاده برای آموزش و طراحی الگوریتم‌های آنها مربوط می‌شود. بنابراین سازمان‌ها باید قبل‌از استقرار این فناوری، ابتدا از کیفیت داده‌های خود مطمئن شوند. موضوع «داده در جهت منافع» جنبشی است که به‌تازگی در زمینه‌ها‌ی علمی و فنی به‌عنوان اصلی برای استفادهٔ مناسب از داده‌ها در کل چرخهٔ عمر آنها به راه افتاده است. در مدیریت نیز باید چنین اصلی وجود داشته باشد، تا هنگام استفاده از هوش مصنوعی در تصمیم‌گیری‌ها و ارائهٔ محصولات و خدمات شرکت‌ها سرلوحهٔ کار قرار گیرد. این اصل اساسی در استفاده از داده‌ها و طراحی الگوریتم‌ها همچنین با نام اختصاری F.A.T.E شناخته می‌شود:

  • انصاف: سوگیری موجود در مجموعه‌داده‌های مورداستفاده برای آموزش الگوریتم‌های هوش مصنوعی؛
  • مسئولیت‌پذیری: پذیرش مسئولیت تصمیمات مبتنی بر مدل‌های هوش مصنوعی؛
  • شفافیت: قابلیت توضیح مدل‌های هوش مصنوعی؛
  • اخلاق: ارزش‌هایی که سیستم‌های هوش مصنوعی بر پایهٔ آنها طراحی شده‌اند؛
  • حکمت عملی: قضاوت مناسب مدیریت درمورد استفاده یا عدم استفاده از هوش مصنوعی براساس منافع تمامی ذی‌نفعان.

انصاف

هوش مصنوعی فناوری قدرتمندی است که باید برای ارائهٔ خدمات بهتر به مشتریان و تقویت بینش‌های سازمانی مورد استفاده قرار گیرد. اما چنین منافعی باید با رعایت انصاف و اجتناب از تحمیل هرگونه بی‌عدالتی تحقق پذیرد. در اینجا منظور از رعایت انصاف این است که مدل‌های مبتنی بر هوش مصنوعی باید پیش‌بینی‌هایی عاری از تعصب را ارائه کنند. یک نمونهٔ بارز از این موضوع، موتور جستجوی تصاویر گوگل است که وقتی عبارت «مدیرعامل» را در آن جستجو می‌کنیم، تصاویری بی‌شمار از مردانی را در کت و شلوار رسمی نشان می‌دهد. این نشان می‌دهد که به‌طور سنتی در شرایط برابر، زنان برای رسیدن به موقعیت‌های ارشد سازمانی با مشکلات عدیده‌ای نسبت‌به مردان مواجه بوده‌اند. در این مورد، داده‌های به‌کاررفته در آموزش الگوریتم شامل تعصب جنسیتی ناشی از سهم بالاتر مردان نسبت‌به زنان در جایگاه‌های مدیریتی است. سوگیری مدل‌های هوش مصنوعی حاصل آموزش الگوریتم با داده‌هاست یا از خود الگوریتم ناشی شود. بااین‌حال، الگوریتم‌ها منعکس‌کنندهٔ ارزش‌های افرادی هستند که آنها را طراحی و کدگذاری کرده‌اند، موضوعی که متعاقباً در ارتباط با پیامدهای اخلاقی هوش مصنوعی به آن خواهیم پرداخت. به همین علت، سازمان‌ها باید توجه ویژه‌ای را به سوگیری‌های اعمال‌شده در مجموعه‌داده‌های مورداستفاده برای آموزش الگوریتم‌ها معطوف دارند. گرچه بسیاری از سیستم‌های مبتنی بر این فناوری با حسن‌نیت ساخته شده‌اند، می‌توانند تأثیرات مستقیم و فزاینده‌ای بر زندگی انسان‌ها داشته باشند. ازاین‌رو تمامی سازمان‌ها باید به موضوع سوگیری داده‌ها توجه کنند، چراکه مسئولیت پیامدهای مختلف آن در حوزه‌هایی مانند دسترسی به مسکن، اعمال قانون و استخدام برعهدهٔ آنهاست. در آخر می‌توان گفت سوگیری در مدل‌های هوش مصنوعی ممکن است با عواقب جدی‌تری همراه بوده و با القای باورهای نادرست موجب انگ‌زنی به گروه‌هایی از جامعه شود.

مسئولیت‌پذیری

مسئولیت‌پذیری همواره به‌عنوان یکی از مهم‌ترین مفاهیم مدیریتی شناخته می‌شود. همان‌طورکه پیتر دراکر (1973) می‌گوید: «رهبران هر سازمان، مسئول و پاسخگوی عملکرد عوامل خود و همچنین مسئول کل جامعه هستند». بنابراین، مسئولیت‌پذیری مستلزم تصدیق و پذیرش تعهدات مرتبط با اقدامات، محصولات و تصمیماتی است که در حوزهٔ مدیریت قرار می‌گیرند. اما مسئولیت‌پذیری درزمینهٔ هوش مصنوعی با چالش‌های بیشتری همراه است، زیرا پشت هر تصمیم یا محصولی، داده‌ها و الگوریتم‌هایی نیز وجود دارند. سازمان‌ها باید برای شکل دادن به این پیامدها و تعیین سیاست‌های منطبق با معیارهای اجتماعی خارجی، مسئولیت‌های خود را بپذیرند. آنها باید سیستم‌ها و برنامه‌های آموزشی لازم برای استفاده از ابزارهای هوش مصنوعی و پذیرش مسئولیت‌های ناشی از نتایج آن را برای مدیران اجرا کنند.

شفافیت

سومین اصل راهنما در رابطه با استفاده از هوش مصنوعی، شفافیت است. سازمان‌ها تنها زمانی می‌توانند سیستم‌های هوش مصنوعی را پیاده‌سازی کنند که از شفافیت لازم برخوردار بوده و به‌جای آنکه مانند یک «جعبهٔ سیاه» تنها ورودی‌ها و خروجی‌های آنها قابل مشاهده باشد، نحوهٔ دستیابی به نتایج را به‌روشنی توضیح دهند. شفافیت همچنین درخصوص رعایت عدالت درمورد تمامی افرادی که تحت تأثیر نتایج هوش مصنوعی قرار می‌گیرند، لازم است. شفافیت برای بسیاری از سازمان‌ها چالش‌برانگیز است، زیرا با ارائهٔ مدل‌های هوش مصنوعی خود، ناگزیر باید سرمایهٔ فکری (دارایی معنوی) خود را نیز افشا کنند. ازاین‌رو، شفاف‌سازی در شرایطی که سازمان‌ها ملزم به توضیح می‌شوند، یا نیاز به شرح دقیق عملکرد داخلی سیستم‌ یا به عبارت دیگر، توجیه نتایج خروجی خود پیدا می‌کنند، بسیار حائز اهمیت است. از این گذشته، مقررات جدید GDRP اتحادیهٔ اروپا شامل «حق توضیح» با ارائهٔ «اطلاعات دقیق دربارهٔ منطق به‌کاررفته» در سیستم است. به‌دلیل ماهیت الگوریتم‌های هوش مصنوعی امروزی، به‌خصوص آنهایی که مبتنی بر شبکه‌های عصبی عمیق هستند، تابه‌حال درک نحوهٔ دستیابی به نتایج نهایی آنها تقریباً غیرممکن بوده است. اما با افزایش روزافزون اهمیت توجیه‌پذیری این سیستم‌ها، محققان درحال تلاش برای ارائهٔ سازوکارهایی هستند که بتوان به‌کمک آنها عملکرد الگوریتم‌های هوش مصنوعی را توضیح داد. سازمان‌ها باید متخصصان جدیدی را موسوم به «توضیح‌دهندگان هوش مصنوعی» به استخدام خود درآورند، که نقش اصلی آنها توضیح عملکرد داخلی الگوریتم‌های پیچیدهٔ هوش مصنوعی است.

اخلاق

اصل راهنمای چهارم در استفاده از هوش مصنوعی، اخلاق است. ازآنجایی‌که انسان‌ها روزبه‌روز بیشتر تصمیمات خود را به سیستم‌های هوش مصنوعی واگذار می‌کنند، دیر یا زود با معضلات اخلاقی ناشی از آن مواجه خواهیم شد. اورن اتزیونه، استاد دانشگاه واشنگتن و مدیر اجرایی مؤسسهٔ آلن، با الهام از سه قانون رباتیک معروف آسیموف، سه قانون اخلاقی را درمورد هوش مصنوعی پیشنهاد می‌کند. قانون اول بیان می‌کند که «هر سیستم هوش مصنوعی باید تابع تمامی قوانینی باشد که برای عملگر انسانی آن تعیین شده است». قانون دوم توضیح می‌دهد که «هر سیستم هوش مصنوعی باید به‌وضوح نشان دهد که انسان نیست». و قانون سوم این است که «هیچ سیستم هوش مصنوعی نباید اطلاعات محرمانه‌ را بدون تأیید صریح منبع آن، حفظ یا افشا کند».

حکمت عملی

چهار اصل راهنمای قبلی یعنی انصاف، مسئولیت‌پذیری، شفافیت و اخلاق، بر اثرات بیرونی هوش مصنوعی بر کارکنان، مشتریان و کل جامعه متمرکز بودند. بااین‌حال، ما از دیدگاه مدیریت عمومی پیشنهاد می‌کنیم که اصل دیگری نیز به آنها اضافه شود: حکمت عملی. این مفهوم یک فضیلت اخلاقی است و به دانش یا درکی اشاره دارد که فرد را قادر به «انجام کار درست» در هر شرایطی می‌کند.

باید توجه داشت که از هوش مصنوعی برای تولید و هدایت سلاح‌های کشتار جمعی نیز می‌توان استفاده کرد. در نوامبر 2018، مجمع جهانی اقتصاد در نشست سالانهٔ شوراهای آیندهٔ جهانی اظهار داشت: «چارچوب‌های اخلاقی، استانداردهای هنجاری و مدل‌های حکمرانی ارزش‌محور باید شفاف‌تر بیان شوند، تا به سازمان‌ها درزمینهٔ توسعه و استفاده از این ابزار قدرتمند در جامعه و اتخاذ رویکردی انسان‌محور و فراتر از مرزهای جغرافیایی و سیاسی کمک کنند». این بیانیه اشاره به تمرکز بیشتر بر اثرات هوش مصنوعی بر افراد داشته و مفهوم حقوق بشر را به حوزهٔ دیجیتال تعمیم می‌دهد. موضوعی که دراصل یازدهم هوش مصنوعی آسیلومار نیز منعکس شده است: «سیستم‌های هوش مصنوعی باید طوری طراحی و اجرا شوند که با آرمان‌های کرامت انسانی، حقوق، اختیارات و تنوع فرهنگی سازگار باشند.»

ازاین‌رو، سازمان‌هایی که از فناوری هوش مصنوعی در گزارهٔ ارزش یا فرایند تصمیم‌گیری خود استفاده می‌کنند، باید نقشی جدید موسوم به «نگهدارندگان هوش مصنوعی» را نیز به سازمان اضافه کنند تا اطمینان یابند که هر سیستم هوش مصنوعی با هدف خدمت به انسان‌ها عمل می‌کند. نقش نگهدارندگان هوش مصنوعی می‌تواند شامل فعالیت‌هایی گسترده‌ همچون تعیین محدودیت‌هایی برای هوش مصنوعی درخصوص رعایت قوانین حقوقی و اخلاقی، مدیریت عملکرد هوش مصنوعی و بررسی کیفیت خروجی آن باشد.

در سطح مدیریتی، علاوه‌بر کنترل خروجی‌های هوش مصنوعی در سازمان، تصمیم دربارهٔ استفاده یا عدم استفاده از این فناوری نیز باید با قضاوت مدیران باشد؛ چراکه این مدیران باید منافع تمامی ذی‌نفعان را مبنای عمل قرار دهند. این کار مستلزم مدیریت سیستمی پیچیده و متعامل است: پیکربندی سازمان، محیط داخلی، محیط خارجی و تجارت. اینها چهار مسئولیت اصلی مدیران را تشکیل می‌دهند. قضاوت در این زمینه باید برمبنای مأموریت یا علت وجودی اصلی شرکت صورت گیرد. بنابراین، پیشنهاد ما این است که اصل حکمت عملی نیز که به مسئولیت‌های اصلی مدیران مربوط می‌شود، به اصول راهنمای استفاده از داده‌ها و طراحی الگوریتم‌ها اضافه شود.

کتاب‌های مرتبط

آیندۀ مدیريت در عصر هوش مصنوعی

211,000 تومان
نام مولف

جوردی کانالز, فرانز هیوکامپ

نام مترجم

مهدیه ویشقلی, میرعلی سیدنقوی

شابک

9786227239966

تعداد صفحه

343

سال انتشار

1401

نوبت چاپ

اول

قطع کتاب

وزیری

نوع جلد

شومیز

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *