[ad_1]

هوش مصنوعی در مشاغل رایج شده است ، اما اطمینان از هوش مصنوعی اخلاقی و مسئولیت پذیر همیشه در اولویت نیست. در اینجا نحوه سازمان ها می توانند از صحت آن اطمینان حاصل کنند.

اعتبار: فنگ یو از طریق Adobe Stock

اعتبار: فنگ یو از طریق Adobe Stock

تعصب و اخلاق در هوش مصنوعی ، با دنبال کردن برخی از نمونه های معروف این موضوع ، توجه عموم و برخی سازمانها را به خود جلب کرده است. به عنوان مثال ، کاری وجود دارد که تعصب در برابر سیاه پوستان و زنان در فناوری تشخیص چهره و یک ابزار مخفی استخدام هوش مصنوعی در آمازون را نشان می دهد که تعصب نسبت به زنان را نشان می دهد ، در میان مثال های دیگر.

اما در مورد جستجوی داخل خانه های خودمان – یا شرکت ها – ممکن است در تعیین اولویت های اخلاقی هوش مصنوعی یا گام برداشتن در جهت کاهش تعصب در الگوریتم ها خیلی دور نباشیم. طبق گزارش جدید FICO ، یک شرکت نرم افزاری جهانی تجزیه و تحلیل ، 65٪ از تحلیلگران و رهبران داده های سطح C می گویند که شرکت آنها نمی تواند نحوه تصمیم گیری یا پیش بینی های خاص مدل هوش مصنوعی را توضیح دهد و 73٪ برای دریافت پشتیبانی مدیرعامل گسترده تر برای اولویت دادن به اخلاق هوش مصنوعی و اقدامات مسئولیت پذیر هوش مصنوعی. فقط 20٪ به طور فعال مدل های خود را در صنعت عدالت و اخلاق کنترل می کنند.

مطالعه 100 تجزیه و تحلیل سطح C و تجزیه و تحلیل داده ها توسط Corinium به نمایندگی از FICO انجام شد. این بررسی همچنین نشان داد که در حالی که کارکنان پیروی از استانداردها (80٪) و اعضای تیم تجزیه و تحلیل فناوری اطلاعات و داده ها (70٪) بیشترین آگاهی را از اخلاق هوش مصنوعی در سازمان ها دارند ، این درک در بقیه قسمتهای سازمان نابرابر است.

اسکات زولدی ، تحلیلگر ارشد FICO ، گفت: “در طول 15 ماه گذشته ، شرکت های بیشتری سرمایه گذاری در ابزارهای هوش مصنوعی انجام داده اند ، اما اهمیت مدیریت هوش مصنوعی و هوش مصنوعی مسئولانه را تا سطح اتاق هیئت مدیره بالا نبردند.”

اما این که در بالاترین سطح اولویت بندی نشده است ، به این معنی نیست که مشکلی ایجاد نمی کند. یک مطالعه جداگانه توسط موسسه Deloitte برای هوش مصنوعی نشان داد که در گروه پذیرندگان هوش مصنوعی ، 95٪ از پاسخ دهندگان ابراز نگرانی در مورد هوش مصنوعی اخلاقی ، شفافیت و توضیحات کردند ، مدیرعامل گروه Beena Amanat سال گذشته به InformationWeek گفت. آمانات گفت که انتظار دارد سازمان های بیشتری برای کار در زمینه اخلاق هوش مصنوعی امسال در سال 2021 شروع می کنند.

به گفته امانات ، برای سازمان هایی که با فناوری های جدیدتر با هوش مصنوعی کار می کنند ، سوالی که باید در ابتدا بپرسید این است که “چه مشکلی می تواند در این زمینه وجود داشته باشد؟ برخی از عواقب آن چیست؟”

سازمانی دیگر که در کار مشاوره خود با هوش مصنوعی با سازمان های شرکتی ، اخلاق و مسئولیت های هوش مصنوعی را فراگرفته است ، آزمایشگاه های سریع به جلو Cloudera است. Ade Adewunmi یک مدیر استراتژیک و مشاوره ای در سازمان است. وی خاطرنشان کرد که سازمان ها اکنون به مجموعه داده های بزرگتر و بیشتری نسبت به چند سال پیش دسترسی دارند و آنها در حال آزمایش نحوه پیاده سازی این مجموعه داده ها و یادگیری ماشین هستند.

وی گفت ، مشاهده سطح بالایی از داده های شما بخش مهمی از هرگونه اخلاق و عملکرد هوش مصنوعی است.

“یکی از س questionsالاتی که ما همیشه از داده هایی که داریم می پرسیم این است که” چقدر نماینده جهانی است که در آن استفاده می شود؟ ” گفت آدونمی. “سازمان ها باید شیوه های ثبت اطلاعات خود را در نظر بگیرند.”

این نیز درصورتی است که برای افزایش مجموعه داده های خود مجموعه داده هایی را از کشورهای دیگر به دست بیاورید.

وی گفت: “ما باید اهمیت متغیرهای داده را درک کنیم تا مطمئن شویم هیچ گروهی وجود ندارد که بتواند به ویژه از آسیب برخوردار شود.”

به عنوان مثال ، برای یک شرکت انرژی یا شرکت ارتباطات از راه دور که علاقه مند به پیش بینی انتقال انرژی یا بار مخابراتی است ، تقاضای مشتری را پیش بینی می کند تا بتواند برنامه ریزی شبکه بهتری انجام دهد ، ممکن است تفاوت های ظریف دیگری نیز در نظر گرفته شود.

Adewunmi گفت: “اگر شما در مورد استفاده از انرژی فرضیاتی بیان كنید ، بین مزایای اقتصادی اجتماعی و نحوه استفاده از انرژی ارتباط وجود دارد.” این ارتباطات ممکن است در انتخاب الگوریتم تأثیری نگذارد ، اما دانستن پیش زمینه مهم است ، زیرا افراد براساس اطلاعات جمع آوری شده توسط الگوریتم تصمیم گیری می کنند.

Adewunmi گفت که او همچنین به مشتریان توصیه می کند که در مورد استفاده از مدل های قابل توضیح فکر کنند.

وی گفت: “هر گونه پیش بینی فقط به همین صورت انجام می شود.” “این پیش بینی یک مدل است.”

اما تصمیمات مبتنی بر این پیش بینی ها اغلب افراد را درگیر می کند. برای تصمیم گیری ، این افراد باید درک درستی از نحوه کارکرد مدل و محدودیت های آن مدل داشته باشند.

Adewunmi گفت: “اگر شما شخصی هستید كه فرصت اعطای اعتبار یا رد اعتبار را دارید ، باید بدانید كه چرا این تصمیم گرفته شده و زمینه گسترده تری را به كار بگیرید.”

وضوح همچنین می تواند به افرادی که باید با یافته های الگوریتمی کار کنند که به نظر نمی رسد در نگاه اول منطقی باشد ، کمک کند. به عنوان مثال ، Cloudera Fast Forward Labs نمونه اولیه ای دارد که سرعت را برای ارائه دهندگان خدمات ارتباط از راه دور فراهم می کند که می خواهند پیش بینی کنند کدام مشتری در معرض انکار سرویس است. مدل یادگیری ماشینی دریافت که یکی از مهمترین عواملی که فرد در آن را ترک می کند این است که آیا میزان بالایی از شکایت از خدمات وجود دارد.

اما متقاضیان در خطر ترک نیستند. درواقع خلاف این موضوع صحت دارد. متقاضیان کسانی هستند که به یک دلیل یا دلیل دیگر قصد اقامت دارند تا سهم بیشتری در کیفیت خدمات خوب داشته باشند. به همین دلیل شکایت می کنند. آنها از بهبود خدمات مراقبت می کنند. کسانی که سهام بالایی ندارند اگر ناراضی باشند فقط آنجا را ترک می کنند. مهم است که بدانید آیا شما نماینده خدماتی هستید که مجاز است مشوق هایی را به مشتریان در معرض خطر انحراف ارائه دهید.

ایجاد توضیحات یکی از چندین گام مهمی است که شرکت ها باید در عملیات هوش مصنوعی خود انجام دهند تا هوش مصنوعی اخلاقی با مسئولیت و اخلاق را در کار خود قرار دهند. کلید کار اطمینان از این است که این مراحل بخشی از روند کلی هوش مصنوعی است.

کورتنی ابرکرومبی ، همکار گزارش FICO و بنیانگذار و مدیرعامل AI Truth ، گفت: “هوش مصنوعی در اقتصاد دیجیتال گسترده تر خواهد شد ، زیرا مشاغل آن را در سطح عملیاتی ادغام می کنند.” “ذینفعان اصلی ، مانند تصمیم گیرندگان ارشد ، اعضای هیئت مدیره ، مشتریان و غیره ، باید درک روشنی از نحوه استفاده از هوش مصنوعی در مشاغل آنها ، خطرات احتمالی موجود و سیستم هایی که برای این کار استفاده می شود ، داشته باشند. نظارت بر توسعه دهندگان هوش مصنوعی می تواند با دعوت از آنها در روند آزمایش مدل های هوش مصنوعی ، نقش مهمی در حمایت از آموزش سهامداران اصلی داشته باشد. “

مطالب مرتبط:

چگونه هوش مصنوعی می تواند جهان را نجات دهد یا خیر

برای هوش مصنوعی متعصب چه کاری می توانیم انجام دهیم؟

رهبری فناوری اطلاعات: 10 روش برای استقرار نوآوری در شرکت ها

جسیکا دیویس سردبیر ارشد در InformationWeek است. این شامل مدیریت فناوری اطلاعات شرکت ها ، مشاغل ، هوش مصنوعی ، داده ها و تجزیه و تحلیل ها و نرم افزارهای سازمانی است. او کار خود را صرف پوشاندن دوراهی تجارت و فناوری کرده است. او را در توییتر دنبال کنید: … بیوگرافی کامل را ببینید

ما از نظرات شما در مورد این موضوع در کانال های رسانه های اجتماعی خود استقبال می کنیم ، یا [contact us directly] با س questionsال در مورد سایت.

مقالات بیشتر



[ad_2]

منبع: tasiveh-news.ir