[ad_1]

مدیریت هوش مصنوعی مسئولیت هیئت مدیره در کاهش فشار از سوی ناظران و گروههای حمایت است.

تصویر: Mopic - stock.adobe.com

تصویر: Mopic – stock.adobe.com

IBM ، مایکروسافت و آمازون اخیراً اعلام کرده اند که در حال متوقف کردن یا متوقف کردن ابتکارات فناوری شناسایی چهره هستند. IBM حتی آزمایشگاه اخلاقی فناوری Notre Dame-IBM را نیز راه اندازی کرده است ، یک “صندوق احضار” برای دانشمندان وابسته و رهبران صنعت برای کشف و ارزیابی چارچوب ها و ایده های اخلاقی. تصمیم گیری ملموس و غیرمستقیم بر اساس هوش مصنوعی – از یک محیط شنی آکادمیک حاصل نخواهد شد. مدیریت هوش مصنوعی به هیئت مدیره مربوط می شود.

هیئت مدیره ها باید از مدیریت هوش مصنوعی مراقبت کنند ، زیرا فناوری هوش مصنوعی تصمیماتی می گیرد که عمیقاً همه را تحت تأثیر قرار می دهد. آیا وام گیرنده به طور نامحسوس مورد تبعیض قرار گرفته و از وام منع می شود؟ آیا بیماری بیمار به درستی تشخیص داده نمی شود؟ آیا شهروندی به جرمی که مرتکب نشده به ناحق دستگیر خواهد شد؟ اندازه فزاینده تصمیمات تغییر دهنده هوش مصنوعی ، فوریتی را که باید انصاف و تعصب هوش مصنوعی در برنامه های شورا لحاظ شود ، تأکید می کند.

اما مدیریت هوش مصنوعی در مورد توصیه های بازدید از دانشمندان یا مدیران فناوری خودشان نیست که می گویند “هیچ آسیبی نمی رسانند”. برای از بین بردن سوگیری ، شوراها باید مدل تغییرناپذیر حاکمیت هوش مصنوعی را درک و کنترل کنند ، که مبتنی بر چهار اصل کلاسیک حاکمیت شرکتی است: پاسخگویی ، انصاف ، شفافیت و پاسخگویی.

مسئوليت تنها زمانی حاصل می شود که هر تصمیمی که در طی فرایند توسعه مدل رخ دهد – تا حد بسیار اندک – به گونه ای ثبت شود که قابل تغییر یا تخریب نباشد. فناوری بلاکچین چنین روشی را برای جلب هر تصمیم توسعه ای و به همان اندازه مهم ، چه کسی آن را گرفته ، چه کسی آن را آزمایش کرده و چه کسی آن را تأیید کرده است ، فراهم می کند.

علاوه بر این ، مدل های هوش مصنوعی باید مطابق با یک قرارداد توسعه مدل در کل شرکت ، با استانداردهای تعیین شده برای تعصب و آزمایش پایداری ساخته شوند. یک چارچوب جامع توسعه بیشتر اطمینان می دهد که تلاش ها به هدر نرود. من به طور مرتب با مدیران بانکی می نشینم که به من می گویند 90٪ از مدل های تحلیلی آنها به دلیل “هنرمندی” غیر قابل توضیح محققان داده های غیرقابل شناسایی ، هرگز به تولید تبدیل نمی شوند.

صداقت به تعصبی نیاز ندارد نه مدل و نه داده ای که مصرف می کند. به عنوان مثال ، فناوری شناسایی چهره به دلیل عدم شناسایی دقیق زنان رنگین پوست کاملاً شناخته شده است ، بخشی از این واقعیت به دلیل سفید پوستی توسعه دهندگان هوش مصنوعی است. مثال: مطالعه 2018 در مورد نرم افزار آنالیز صورت توسط MIT و دانشگاه استنفورد نشان داد که میزان خطای شناسایی 0.8٪ برای مردان پوست روشن و 34.7٪ برای زنان پوست سیاه است.

برای اتخاذ تصمیمات بی طرفانه ، استانداردهای مدیریت هوش مصنوعی باید معماری های مدل AI را تحمیل کند که خصوصیات پنهان را نشان دهد. اینها اتصالات پنهانی بین ورودی داده ها هستند که به طور غیرمنتظره عملکرد مدل استخراج شده از داده های آموزش مدل را تحریک می کنند.

به عنوان مثال ، اگر یک مدل هوش مصنوعی شامل ساخت و نسخه تلفن همراه توسط شخص باشد ، الگوریتم های یادگیری ماشین که در حین آموزش مدل فعال می شوند می توانند با ترکیب این داده ها توانایی تهیه یک تلفن گران قیمت را تعیین کنند ، این ویژگی می تواند درآمد و به نوبه خود تعصب نسبت به سایر تصمیمات ، از قبیل اینکه مشتری چه مقدار پول می تواند وام بگیرد ، با چه نرخ بهره ای نسبت می دهد.

یک روند دقیق و دقیق مدیریت توسعه مدل هوش مصنوعی ، همراه با نمایان بودن ویژگی های پنهان ، قسمت عمده ای از راهکارهایی است که هیئت مدیره با کاهش تعصب می توانند عدالت را اجرا کنند.

شفافیت لازم است مدلهای تحلیلی بدون ایجاد تعصب با محیطهایی که به سرعت در حال تغییر هستند سازگار باشد. شرایط اپیدمیولوژیک و اقتصادی همه گیری ، نمونه ای از یک کتاب درسی است. بدون یک سیستم ضبط غیرقابل تغییر قابل تأیید ، شرکت ها باید حدس بزنند یا از مدل های هوش مصنوعی خود بخواهند که به کار دقیق خود ادامه دهند.

این بسیار مهم است زیرا ، مثلاً دارندگان کارت اعتباری خواهان افزایش سقف اعتباری برای بیکاری هستند. وام دهندگان مایلند اعتبارات اضافی را تا حد ممکن منطقی تأمین کنند ، اما برای این کار باید اطمینان داشته باشند که مدلهای پشتیبانی کننده از چنین راه حلهایی هنوز قابل اعتماد هستند.

به جای ارسال ایمیل ها و دایرکتوری ها یا پیگیری تمرینات داده ای که مدل را ساخته اند ، کارمندان بانک موجود می توانند به سرعت با یک سیستم ثابت سوابق که تمام آزمایشات مدل ها ، راه حل ها و نتایج توسعه را مستند می کند ، مشورت کنند. آنها می توانند ببینند که مدل وام دهی تا چه اندازه حساس است ، تعیین می کنند که آیا اکنون ویژگی ها در محیط COVID مغرضانه شده اند یا بر اساس تحقیق حسابرسی مدل ، استراتژی های تخفیف را ایجاد می کنند.

مسئوليت گوشته سنگینی است ، اما جو عمومی ما بر نیاز شرکتها به استفاده از فناوری هوش مصنوعی با حساسیت عمیق به تأثیر آن تأکید دارد. مشابه بی اعتمادی مصرف کننده به اینکه سالها نقض اطلاعات شرکت ها رخ داده است ، خطاهای هوش مصنوعی به ضرر بزرگ جهان ادامه دارد.

آینده روشن و زیبا نیست: هیئت هایی که مسئولیت خود را برای اطمینان از هوش مصنوعی ایمن و بی طرف قبول نکنند مشمول مقررات ، شاخ و برگ بسیاری از دعاوی و گروه های قدرتمند حمایت از هوش مصنوعی خواهند بود.

من به عنوان یک شهروند نگران ، بیداری و تقویت تابلوها را تحسین می کنم تا متوجه خطر استفاده نامحدود از هوش مصنوعی شوم. من به عنوان یک دانشمند داده ، می دانم که نظارت بر هیئت مدیره و تنظیم دولت در مورد هوش مصنوعی مورد نیاز است. مدیریت ، نه بهترین اهداف ، همان چیزی است که شرکت ها را صادق نگه می دارد.

اسکات زولدی مدیر ارشد تحلیلگر FICO ، یک شرکت نرم افزاری برای تجزیه و تحلیل پیش بینی و مدیریت تصمیم گیری است. وی نویسنده 110 اختراع تحلیلی با 56 مورد صادر شده و 54 مورد در انتظار است.

انجمن هفته اطلاعات متخصصان فناوری اطلاعات و متخصصان صنعت را با مشاوره ، آموزش و نظرات فناوری اطلاعات گرد هم آورده است. ما تلاش می کنیم رهبران فن آوری و متخصصان موضوع را برجسته کنیم و از دانش و تجربه آنها برای کمک به مخاطبان IT خود استفاده کنیم … بیوگرافی کامل را ببینید

ما از نظرات شما در مورد این موضوع در کانال های رسانه های اجتماعی خود استقبال می کنیم [contact us directly] با س questionsالات در مورد سایت.

مقالات بیشتر



[ad_2]

منبع: tasiveh-news.ir