[ad_1]

هوش مصنوعی با پیش داوری یک مشکل واقعی است. اما چگونه این اتفاق می افتد ، چه عواقبی دارد – و چه کاری می توانیم در مورد آن انجام دهیم؟

اعتبار: Wright Studio از طریق Adobe Stock

اعتبار: Wright Studio از طریق Adobe Stock

هوش مصنوعی مسیرهای جدیدی را در بسیاری از صنایع پیش می برد. از آنجا که برنامه های کاربردی این برنامه های منحصر به فرد و پیشرفته بسیار متنوع هستند ، شما ممکن است مضطرب باشید که یاد بگیرید فرآیندهای خودکار هوش مصنوعی می توانند مغرضانه عمل کنند. هوش مصنوعی را می توان با مجموعه تعصبات خاص خود برنامه ریزی کرد.

اگرچه به نظر می رسد که در حال حاضر به طور ضمنی از این فناوری پیروی می کنیم ، اما کشف این مسئله که اشتباه است می تواند یک قرص دشوار برای بلعیدن باشد.

بسیاری پیشنهاد می کنند برای ایجاد مجموعه ای از اخلاق هوش مصنوعی ، تحقیقات بیشتری انجام دهند. این شامل ارزش ها ، اصول و تکنیک هایی برای اطمینان از ادامه هوش مصنوعی تمام فرایندهای خود از نظر اخلاقی است.

مانند هر توسعه جدید ، دوره ای نیز وجود دارد که باید پیشرفت ، اکتشافات و قوانین ایجاد شود. هیچ چیز جدیدی در این مورد وجود ندارد ، اما سرعتی که AI ایجاد می کند ، آن را در کلاس جدیدی از خود قرار می دهد. بنابراین ، قبل از اینکه تغییر دهید و شورشی علیه ماشین آلات ایجاد کنید ، بیایید بیشتر بدانیم که تعصب AI چیست.

AI Bias چیست؟

همانطور که همه ما می دانیم ، مردم می توانند تعصب داشته باشند. شاید کاملا اجتناب ناپذیر باشد. متأسفانه ، وقتی توسعه دهندگان برای برخی سیستم ها کد می نویسند ، و در بعضی موارد با AI تقویت می شود ، این می تواند پراکنده شود.

اگرچه ممکن است یک خطای انسانی باشد ، اما ممکن است مربوط به داده های از دست رفته یا ناقص برنامه ریزی شده در هوش مصنوعی باشد.

این تعصبات همچنین می تواند نظارت کاملی باشد و به سادگی از روندهای قدیمی تقلید کند. یا در بعضی موارد ، زیرا تیم هایی که آنها را ایجاد می کنند ، به اندازه کافی متنوع نیستند تا مشکلات را متوجه شوند.

مثالی از این مورد و یک مثال معروف ، ابزار استخدام جانبدار آمازون است.

مورد آمازون

در سال 2014 ، آمازون می خواست روند استخدام خود را به طور خودکار انجام دهد. همانطور که می توانید تصور کنید ، شرکتی در اندازه آنها برای بررسی از سرگیری ساعت ها زمان لازم دارد. تصمیم آنها ایجاد یک برنامه هوش مصنوعی بود که CV متقاضیان کار را بررسی و استخدام کنندگان را ارزیابی کند.

اگرچه این باعث منحرف شدن لیست شد ، اما سال بعد آمازون متوجه شد که مشکلی وجود دارد زیرا این سیستم زنان را به همان اندازه مردان نامزد نمی کند.

این رفتار آموخته شده به اطلاعات تاریخی که آمازون طی 10 سال گذشته به سیستم ارائه داده است خلاصه می شود. از آنجا که نیروی کار 60٪ مرد است ، سیستم به اشتباه تصور می کند این شرکت مردان را ترجیح می دهد. پس از کشف مشکل ، شرکت به سرعت به روش خواندن رزومه بازگشت.

در حالی که این نشان می دهد که چگونه تعصب می تواند در سیستم ها رخنه کند ، اما چگونه ما می توانیم زمینه ایجاد سیستم های هوش مصنوعی اخلاقی را فراهم کنیم؟

اخلاق هوش مصنوعی چگونه خواهد بود؟

همانطور که انتظار دارید ، این یک سوال جامع است. لطفاً سه قانون روباتیک آزیموف را در اینجا نقل نکنید.

پی بردن به اینکه اخلاق هوش مصنوعی چگونه است و چگونه می توان آنها را در یک سیستم بی طرفانه بی نظیر گنجاند ، گام های متفاوتی برمی دارد:

1. بررسی دقیق اطلاعات

همانطور که اشاره کردم ، اطمینان حاصل کنید که هوش مصنوعی شما از داده های مناسب استفاده می کند. این روند بررسی باید توسط یک نهاد مستقل انجام شود. به نوبه خود ، این زمینه جدیدی از متخصصان را ایجاد می کند که مهارت های خود را بهبود می بخشند.

2. در ایجاد چارچوبی متناسب با صنعت خود سرمایه گذاری کنید

ایجاد و طوفان فکری مباحث اخلاقی پیش روی صنعت شما و اجرای این دروس در سیستم می تواند به شناسایی مسائل کمک کند. و فقط با انجام این کار ، حتی می توانید برای حل مشکلات دنیای واقعی چند قدم بردارید.

3- از درسهای آموخته شده در سایر صنایع اخلاقی استفاده کنید

برخی صنایع قبلاً مجبور بودند با گفتگوهای اخلاقی خاصی کنار بیایند. رشته پزشکی یکی از رشته های پزشکی است که به دلیل فناوری در حال حاضر بحث های عمیقی در حال انجام است. وقتی شرکت ها می توانند مهارت ها را گرده افشانی کنند ، همیشه منجر به نوآوری می شود.

4. انجام بحث های اخلاقی و موتورهای آگاهی

صرف داشتن یک مکالمه باعث می شود مردم از مشکل آگاه شوند. همچنین میزبانی آگاهی به افراد آموزش می دهد. آموزش مردم در مورد تعصبات آنها همیشه یک امتیاز مثبت برای کل بشریت است.

5- نتایج را مشاهده کنید

هنگام بررسی پرونده آمازون ، مرحله اول برای اطمینان از اخلاقی بودن هوش مصنوعی نظارت بر آن است. همیشه داده ها و نتایج را در سیستم مرور کنید.

گرچه ایجاد اخلاق عالی است ، اما باید یک نهاد نظارتی مناسب وجود داشته باشد تا اطمینان حاصل کند که هوش مصنوعی از کنترل خارج نمی شود.

مقررات هوش مصنوعی

جای تعجب نیست ، اما دولت ممکن است در این مورد دقیق نباشد. ما به متخصصانی نیاز داریم که بتوانند مشاوره دهند و تصمیمات نظارتی حیاتی بگیرند.

این اولین بار نیست. سازمان غذا و دارو (FDA) ، کمیسیون بورس و اوراق بهادار (SEC) و آژانس حفاظت از محیط زیست (EPA) به دلیل رویدادی ایجاد شده اند که پس از آن شخص به تنظیم وضعیت نیاز دارد.

کارشناسان جامعه هوش مصنوعی موافقند که باید یک هیئت نظارت برای حل مشکلات عظیم وجود داشته باشد. اینها شامل مشکلاتی است که همه ما با آن آشنا هستیم ، یعنی Deepfakes و تشخیص چهره. مشکل Deepfakes این است که می توان بیانیه های دروغین را در سراسر جهان صادر و توزیع کرد و باعث هرج و مرج شد.

اگر كارشناسان و دولت با هم كار كنند ، می تواند یك نهاد م AIثر وجود داشته باشد تا اطمینان حاصل كند كه هوش مصنوعی به عموم مردم آسیب نمی رساند ، بلكه جهان را بلند می كند.

برای آینده بهتر هوش مصنوعی چه کاری می توانیم انجام دهیم

هوش مصنوعی اینجاست که بماند. ما در حال حاضر یک دوره حساس را پشت سر می گذاریم. هر روز سریعتر در حال رشد است و کاربردها عمیق تر شده و به صنایع بیشتری گسترش می یابند.

این وظیفه ماست که بر چگونگی پیاده سازی هوش مصنوعی در زندگی ما نظارت کنیم ، موارد قابل شناسایی را گزارش دهیم و بر اساس راه حل هایی که می توانند مسیرهای سازنده رو به جلو را ایجاد کنند ، به کاربر تبدیل شویم.

همه ما در این امر با هم هستیم.

جودی گلیدون بنیانگذار و مدیر عامل شرکت Introhive است. Introhive در سال 2012 تاسیس شده و سریعترین رشد B2B برای سرویس های اطلاعاتی و سیستم عامل مدیریت داده است. این شرکت اخیراً توسط برنامه های Fast 50 و Fast 500 Deloitte شناخته شد و به عنوان برنده جایزه دستیابی به موفقیت MarTech 2020 برای بهترین نوآوری CRM شناخته شد. جودی یک رهبر تجاری باتجربه با مقاومت در هنگام راه اندازی ، سخت گیری شرکت عمومی و علاقه نوآورانه به فناوری است. Introhive چهارمین شرکتی است که در تأسیس و ساخت شرکت دارد ، با سه نتیجه موفق شامل Chalk Media ، icGlobal و Scholars.com.

انجمن هفته اطلاعات متخصصان فناوری اطلاعات و متخصصان صنعت را با مشاوره ، آموزش و نظرات فناوری اطلاعات گرد هم آورده است. ما تلاش می کنیم تا رهبران فن آوری و متخصصان موضوع را برجسته کنیم و از دانش و تجربه آنها برای کمک به مخاطبان IT خود استفاده کنیم … مشاهده بیوگرافی کامل

ما از نظرات شما در مورد این موضوع در کانال های رسانه های اجتماعی خود استقبال می کنیم ، یا [contact us directly] با س questionsالات در مورد سایت.

مقالات بیشتر



[ad_2]

منبع: tasiveh-news.ir