اشتباهات رایج در هوش اخلاقی که شرکت ها مرتکب می شوند


سازمانهای بیشتری مفهوم هوش مصنوعی مسئولانه را پذیرفته اند ، اما فرضیات غلط می توانند مانع موفقیت شوند.

تصویر: Kentoh - stock.adobe.com

تصویر: Kentoh – stock.adobe.com

هوش مصنوعی اخلاقی هوش مصنوعی مسئول. AI مورد اعتماد. شرکت های بیشتری در مورد اخلاق هوش مصنوعی و جنبه های آن صحبت می کنند ، اما آیا آنها می توانند از آنها استفاده کنند؟ برخی از سازمانها اصول و ارزشهای مسئولانه ای را برای هوش مصنوعی تدوین کرده اند ، اما در تبدیل آنها به چیزی که قابل استفاده است با مشکل روبرو هستند. شرکتهای دیگر همانطور که زودتر شروع به کار کرده اند رو به جلو حرکت می کنند ، اما برخی با واکنش گسترده مردم روبرو می شوند تا مرتکب اشتباهاتی شوند که می توان از آنها جلوگیری کرد.

واقعیت این است که اکثر سازمان ها قصد انجام کارهای غیراخلاقی با هوش مصنوعی را ندارند. آنها ناخواسته آنها را انجام می دهند. با این حال ، وقتی مشکلی پیش می آید ، مشتریان و مردم کمتر از آنچه در نتیجه اقدامات یا بی عملی شرکت اتفاق افتاده ، به اهداف شرکت اهمیت می دهند.

در اینجا برخی از دلایل تلاش شرکت ها برای بدست آوردن مسئولیت هوش مصنوعی به درستی ذکر شده است.

آنها روی الگوریتم ها تمرکز می کنند

رهبران مشاغل نگران تعصب الگوریتمی هستند زیرا متوجه می شوند که این مسئله به یک مشکل تجاری تبدیل شده است. با این حال ، هوش مصنوعی مسئول به موارد بیشتری نیاز دارد.

“محصول هوش مصنوعی هرگز فقط یک الگوریتم نیست. این یک سیستم کامل پایان به پایان و همه اینهاست [related] فرایندهای تجاری “، استیفن میلز ، مدیر عامل ، شریک و مدیرعامل اخلاق AI در گروه مشاوره بوستون (BCG) گفت.” شما می توانید هر کاری که می توانید انجام دهید تا مطمئن شوید الگوریتم شما تا حد ممکن بی طرفانه است ، اما باید کل زنجیره ارزش پایان از انتها را از جمع آوری داده ها تا الگوریتم ها تا نحوه استفاده از خروجی در تجارت در نظر بگیرید. “

با تمرکز دقیق روی الگوریتم ها ، سازمان ها منابع بسیاری از سوگیری بالقوه را از دست می دهند.

آنها بیش از حد از اصول و ارزشها انتظار دارند

سازمانهای بیشتری اصول و ارزشهای مسئولانه ای را برای هوش مصنوعی تدوین کرده اند ، اما در بعضی موارد آنها چیزی بیشتر از بازاریابی روکش نیستند. اصول و ارزشها منعکس کننده سیستم اعتقادی است که زیربنای هوش مصنوعی مسئول است. با این حال ، شرکت ها لزوماً اعلامیه های خود را با چیزی واقعی پشتیبانی نمی کنند.

کل کارلسون ، تحلیلگر ارشد تحقیقات فارستر ، که شامل علوم داده ، یادگیری ماشین ، هوش مصنوعی و تجزیه و تحلیل پیشرفته است ، گفت: “بخشی از این چالش در نحوه بیان اصول نهفته است. آنها نمی توانند برآورده شوند.” “آنها در چنان سطح جاه طلبانه ای نوشته شده اند که اغلب ارتباط چندانی با موضوع ندارند.”

Kjell Carlsson ، Forrester

Kjell Carlsson ، Forrester

BCG قطع ارتباط را “شکاف مسئولانه در هوش مصنوعی” می نامد زیرا مشاوران آن اغلب با این مشکل روبرو می شوند. برای تأمین انرژی هوش مصنوعی مسئول ، میلز توصیه می کند:

  • وجود یک رهبر مسئول AI
  • تکمیل اصول و ارزشها با آموزش
  • شکستن اصول و ارزش های زیرعنوان برای اقدام
  • تنظیم ساختار مدیریتی
  • برای شناسایی و کاهش مشکلات ، بررسی مسئولانه هوش مصنوعی محصولات را انجام دهید
  • ابزارها و روشهای فنی را یکپارچه کنید تا نتایج قابل اندازه گیری باشد
  • در صورت بروز خطای هوش مصنوعی مسئول ، برنامه ای ایجاد کنید که شامل خاموش کردن سیستم ، اطلاع رسانی به مشتریان و ارائه شفافیت در مورد اشتباه است و آنچه برای رفع آن انجام شده است

آنها فرایندهای مسئولیت جداگانه ای را برای هوش مصنوعی ایجاد کرده اند

هوش مصنوعی اخلاقی بعنوان یک مقوله جداگانه مانند رازداری و امنیت سایبری در نظر گرفته می شود. با این حال ، همانطور که دو عملکرد آخر نشان داده است ، آنها نمی توانند در هنگام کار در خلا موثر باشند.

“[Organizations] مجموعه ای از فرایندهای موازی را به عنوان چیزی شبیه به یک برنامه مسئول هوش مصنوعی در محل قرار دهید. چالش این است که یک لایه کامل به آنچه تیم ها قبلاً انجام داده اند اضافه کنید ، “گفت میلز از BCG.” به جای ایجاد یک سری چیزهای جدید ، آن را به فرآیند موجود خود تزریق کنید تا بتوانیم اصطکاک را تا حد ممکن پایین نگه داریم. “

به این ترتیب ، هوش مصنوعی مسئولیت پذیر به بخشی طبیعی از روند کار تیم توسعه محصول تبدیل می شود و مقاومت بسیار کمتری در برابر آنچه در غیر این صورت به عنوان یک خطر یا ویژگی انطباق دیگر تلقی می شود و هزینه های اضافی اضافه می کند ، وجود دارد. طبق گفته میلز ، موفق ترین شرکت ها رویکردی یکپارچه در پیش گرفته اند.

آنها یک شورای مسئول برای هوش مصنوعی بدون برنامه وسیع تر ایجاد کردند

نکات مربوط به هوش مصنوعی اخلاقی لزوماً گروه های چند عملکردی هستند ، زیرا هیچ کس ، صرف نظر از تجربه خود ، نمی تواند کل چشم انداز خطرات احتمالی را پیش بینی کند. شرکت ها باید از دیدگاه حقوقی ، تجاری ، اخلاقی ، فناوری و سایر موارد درک کنند که چه چیزی ممکن است اشتباه پیش رود و عواقب آن چیست.

با این حال ، مراقب باشید چه کسی برای عضویت در هیئت مدیره انتخاب می شود ، زیرا ممکن است دیدگاه های سیاسی آنها ، کاری که شرکت آنها انجام می دهد یا چیز دیگری در گذشته آنها شکست بخورد. به عنوان مثال ، گوگل یک هفته بعد کمیته اخلاق هوش مصنوعی خود را به دلیل شکایت در مورد نظرات یکی از اعضا علیه LGBTQ و این واقعیت که یکی دیگر از اعضای دیگر مدیر عامل یک شرکت هواپیماهای بدون سرنشین است که هوش مصنوعی آن برای کاربردهای نظامی استفاده می شود ، منحل کرد.

از اساس تر ، این شوراها می توانند بدون درک کافی از نقش آنها تشکیل شوند.

استفان میلز ، یک گروه مشاوره در بوستون

استفان میلز ، یک گروه مشاوره در بوستون

میلز به BCG گفت: “شما باید در مورد چگونگی ارائه بازخورد فکر کنید تا بتوانیم مشکلات احتمالی یا محصولات بالقوه خطرناک را گزارش دهیم.” “ما می توانیم در صنعت مراقبت های بهداشتی کارهایی انجام دهیم که ذاتاً از تبلیغات خطرناک تر باشد ، بنابراین برای مطرح کردن موارد به این مراحل نیاز داریم تا شورا بتواند در مورد آنها بحث کند. فقط گذاشتن آنها کمک نمی کند.”

شرکت ها باید یک برنامه و استراتژی در مورد چگونگی پیاده سازی هوش مصنوعی مسئولانه در سازمان داشته باشند [because] به این ترتیب آنها می توانند بزرگترین تغییر را در اسرع وقت انجام دهند ،

میلز گفت: “من فکر می کنم مردم تمایل به انجام کارهایی دارند که جالب به نظر می رسند ، مانند درست کردن تخته ، اما آنها آن را به یک استراتژی و رویکرد کلی نگر تبدیل نمی کنند.”

ردیف پایین

هوش مصنوعی مسئول بیش از آنچه در نگاه اول به نظر می رسد ، برخوردار است و این رویکرد نسبتاً باریکی است که شرکت ها نشان می دهند. این یک تلاش جامع است که نیاز به برنامه ریزی ، رهبری موثر ، اجرا و ارزیابی با توجه به توانایی ها ، فرایندها و فناوری های افراد دارد.

مطالب مرتبط:

چگونه AI ، ML و NLP را به زبان ساده به رهبران تجارت توضیح دهیم

نحوه شکل گیری داده ها ، تجزیه و تحلیل و هوش مصنوعی در سال 2020 و بر 2021 تأثیر می گذارد

هوش مصنوعی یک سال بعد: همه گیری چگونه بر آینده فناوری تأثیر می گذارد

لیزا مورگان یک نویسنده مستقل است که داده های بزرگ و BI را برای InformationWeek پوشش می دهد. او در مقالات ، گزارش ها و انواع دیگر مطالب در نشریات و سایت های مختلف شرکت کرده است ، از SD Times گرفته تا واحد هوشمند اکونومیست. مناطق مشترک پوشش شامل … بیوگرافی کامل را ببینید

ما از نظرات شما در مورد این موضوع در کانال های رسانه های اجتماعی خود استقبال می کنیم [contact us directly] با س questionsالات در مورد سایت.

بینش بیشتر




منبع: tasiveh-news.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>