[ad_1]

دیر یا زود ، هوش مصنوعی ممکن است کاری غیرمنتظره انجام دهد. اگر چنین کند ، سرزنش الگوریتم کمکی نخواهد کرد.

اعتبار: sdecoret از طریق Adobe Stock

اعتبار: sdecoret از طریق Adobe Stock

هوش مصنوعی بیشتر در قالب ابتکارات هوش مصنوعی و هوش مصنوعی تعبیه شده به شرکت آمریکایی راه پیدا می کند. صرف نظر از صنعت ، پذیرش و استفاده از هوش مصنوعی همچنان ادامه خواهد یافت زیرا رقابت به آن بستگی دارد.

با این حال ، بسیاری از وعده های هوش مصنوعی باید در برابر خطرات احتمالی متعادل شوند. در رقابت برای پیاده سازی فناوری ، شرکتها نیازی به درگیر کردن افراد مناسب ندارند یا سطح آزمایشی را که باید انجام دهند انجام می دهند تا خطر احتمالی خود را به حداقل برسانند. در واقع ، این امکان وجود دارد که شرکت ها به دادگاه بروند ، با جریمه های قانونی یا هر دو روبرو شوند ، فقط به این دلیل که برخی از مفروضات بد را مطرح کرده اند.

به عنوان مثال ، ClearView AI ، که فروش چهره را به نیروی انتظامی می فروشد ، در ایلینوی و کالیفرنیا توسط کشورهای مختلف به دلیل ایجاد یک پایگاه داده تشخیص چهره با 3 میلیارد تصویر در هر میلیون آمریکایی شکایت شده است. Clearview AI داده های وب سایت ها و شبکه های اجتماعی را حذف می کند ، احتمالاً به این دلیل که می توان این اطلاعات را “عمومی” دانست. شاکی ایلینوی Mutnick v. Clearview AI ادعا می کند که تصاویر جمع شده و بر خلاف قانون محرمانه بودن بیومتریک ایلینوی (BIPA) استفاده شده است. به طور خاص ، Clearview AI ادعا می کند که اطلاعات را بدون اطلاع یا رضایت افراد جمع آوری کرده و از فروش اطلاعات به اشخاص ثالث سود برده است.

به همین ترتیب ، متقاضی در کالیفرنیا در Burke v. Clearview AI ادعا می کند که طبق قانون حریم شخصی مصرف کننده در کالیفرنیا (CCPA) ، Clearview AI به افراد در مورد جمع آوری داده ها یا اهدافی که داده ها “در محل جمع آوری یا قبل از آن” استفاده خواهد شد ، اطلاع نداده است.

در یک دادخواست قابل مقایسه ، IBM در ایلینوی به دلیل ایجاد یک مجموعه داده آموزش از تصاویر جمع آوری شده توسط فلیکر شکایت شد. هدف اصلی آن از جمع آوری داده ها جلوگیری از تعصب در برابر تبعیض نژادی ناشی از استفاده از بینایی رایانه بود. آمازون و مایکروسافت همچنین از مجموعه داده های مشابه آموزشی استفاده کردند و همچنین تحت تعقیب قرار گرفتند – همه به دلیل نقض BIPA. آمازون و مایکروسافت استدلال کردند که آیا داده ها برای آموزش در ایالت دیگری استفاده شده است ، بنابراین BIPA نباید اعمال شود.

گوگل همچنین در ایلینوی به دلیل استفاده از داده های بهداشتی بیمار برای آموزش پس از دستیابی به DeepMind شکایت شد. مرکز پزشکی دانشگاه شیکاگو نیز به عنوان متهم معرفی شد. هر دو متهم به نقض HIPAA هستند زیرا مرکز پزشکی ادعا می کند داده های بیمار را با Google به اشتراک گذاشته است.

سینتیا کول

سینتیا کول

اما در مورد پرونده های قضایی هوش مصنوعی چطور؟

سینتیا کول ، یکی از شرکای بیکر بوتس و استادیار حقوق در Northwestern Pritzker ، گفت: “موارد زیادی با استفاده از مسئولیت محصول به عنوان یک تئوری وجود داشته است و آنها تاکنون از دست رفته اند ، اما در محافل قضایی و نظارتی در حال افزایش هستند.” پردیس دانشکده حقوق در سانفرانسیسکو. “من فکر نمی کنم که این مفهوم” ماشین این کار را بکند “در نهایت ممکن است انجام شود. تصمیم گیری در مورد ماشین که می تواند تأثیر قابل توجهی روی شخص داشته باشد کاملاً ممنوع است.”

توضیح هوش مصنوعی می تواند زمینه ای مناسب برای جنجال باشد

هنگامی که نیل پرتز در اداره حمایت مالی مصرف کننده به عنوان تنظیم کننده خدمات مالی در حال بررسی شکایات مصرف کننده کار می کند ، متوجه می شود که در حالی که شرکت خدمات مالی قصد ایجاد تبعیض درمورد مصرف کننده خاصی را ندارد ، چیزی ایجاد شد که به نتیجه رسید.

“اگر من یک مدل بد را در عمل از یک رفتار خاص بسازم ، [with AI,] این فقط این نیست که من یک سیب بد دارم. اکنون من یک سیب منظم و همیشه بد دارم. ” دستگاه ادامه رفتار شما است. یا او را آموزش دادید یا او را خریدید زیرا او کارهای خاصی را انجام می دهد. شما می توانید قدرت را برون سپاری کنید ، اما نه مسئولیت را. “

اگرچه نگرانی های قابل توجهی در مورد تعصبات الگوریتمی در تنظیمات مختلف وجود دارد ، وی گفت که بهترین کار برای اطمینان از همسو بودن متخصصان آموزش دهنده سیستم است.

پرتز گفت: “آنچه مردم در مورد هوش مصنوعی نمی دانند ، آنچه باعث دشواری آنها خواهد شد ، به ویژه در مورد توضیح ، این است كه آنها نمی فهمند كه آنها باید متخصصان انسانی خود را با دقت مدیریت كنند.” “اگر من دو متخصص داشته باشم ، ممکن است هر دو درست باشند ، اما ممکن است با هم اختلاف نظر داشته باشند. اگر آنها به طور مکرر موافقت نکنند ، من باید این موضوع را بررسی کنم و بفهمم چه اتفاقی می افتد ، زیرا در غیر این صورت من نتایج تصادفی می گیرم که می تواند گاز گرفتن. بعداً “

مسئله دیگر صحت سیستم است. اگرچه درجه بالایی از دقت همیشه خوب به نظر می رسد ، اما ممکن است در درصد کوچکتر ، یعنی میزان خطا ، دید کمی داشته باشد یا اصلاً دیده نشود.

وی گفت: “نود یا نود و پنج درصد دقت و ضبط ممکن است واقعاً خوب به نظر برسد ، اما اگر من به عنوان یک وکیل باید بگویم آیا اشکال دارد که از هر 10 یا 20 مورد اجاره نامه یکی را اشتباه بگیرید؟” پرتز گفت: “شما می گفتید ،” نه ، شما اخراج شده اید “. “حتی اگر مردم مرتکب اشتباه شوند ، هیچ خطایی که شخص مرتکب نشود ، تحمل نخواهد کرد.”

کار دیگری که وی برای ارائه توضیحات انجام می دهد ، یخ زدن در طول مجموعه داده های آموزش است.

نیل فلفل

نیل فلفل

پرتز گفت: “هر زمان که ما مدلی را می سازیم ، رکورد داده های آموزشی را که برای ساخت مدل خود استفاده کرده ایم ، مسدود می کنیم. حتی اگر داده های آموزش افزایش یابد ، ما داده های آموزشی را که با آن مدل همراه است منجمد کرده ایم.” “تا زمانی که درگیر این بهترین روش ها نشوید ، وقتی متوجه نشوید که مجبورید داده ها را به عنوان مصنوعات در لحظه آموزش نگه دارید ، دچار یک مشکل شدید می شوید. [the model] و هر لحظه بعد از آن. چگونه دیگر می توانید آن را تحلیل کنید که چگونه نتیجه گرفتید؟ “

شخص را در چرخه نگه دارید

اکثر سیستم های هوش مصنوعی مستقل نیستند. آنها نتایج را ارائه می دهند ، توصیه می کنند ، اما اگر آنها تصمیم می گیرند خودکار تصمیم بگیرند که می تواند بر افراد یا گروههای خاصی تأثیر منفی بگذارد (به عنوان مثال کلاسهای محافظت شده) ، نه تنها یکی باید آگاه باشد ، بلکه گروهی از افراد نیز می توانند به شناسایی بالقوه کمک کنند. خطرات در مراحل اولیه ، مانند افراد قانونی ، انطباق ، مدیریت ریسک ، رازداری و غیره

به عنوان مثال ، ماده 22 GDPR صریحاً به تصمیم گیری خودکار فردی از جمله پروفایل اشاره دارد. در این مقاله آمده است: “موضوع داده حق دارد فقط براساس پردازش خودکار موضوع تصمیمی قرار نگیرد ، از جمله نمایه ای که به همین ترتیب اثرات حقوقی م affectثر بر او ایجاد می کند.” اگرچه چند مورد استثنا وجود دارد ، به عنوان مثال ، کسب رضایت صریح مصرف کننده یا انطباق با سایر قوانینی که اعضای اتحادیه اروپا دارند ، داشتن پادمان هایی که احتمال دادرسی ، جریمه های نظارتی و سایر خطرات را به حداقل می رساند ، مهم است.

دویکا کورنباخر

دویکا کورنباخر

Devika Kornbacher ، یکی از شرکای Vinson & Elkins ، گفت: “شما افرادی را دارید که آنچه را با بازاریابی ابزاری به آنها گفته می شود باور دارند و آنها یک بررسی صحیح را برای تعیین اینکه آیا ابزار واقعاً کار می کند انجام نمی دهند.” “اولین نامه آزمایشی تهیه کنید و گروهی از افراد را به شما کمک کند تا صحت خروجی هوش مصنوعی را آزمایش کنند – علوم داده ، اشخاص حقوقی ، مصرف کنندگان یا افرادی که باید بدانند نتیجه چه نتیجه ای خواهد داشت.”

در غیر این صورت ، ممکن است کسانی که با هوش مصنوعی خرید می کنند (به عنوان مثال ، خرید عمومی یا شغل تجاری) از دامنه کلی ریسک هایی که می تواند بر شرکت و افراد داده تأثیر بگذارد ، آگاهی نداشته باشند.

“شما حتی در مرحله مشخصات باید عقب باشید ، زیرا ما این را می بینیم. [Someone will say,] پرتز گفت: “من این مدل امضای عالی را پیدا کردم ، و معلوم شد که از نظر قانونی قابل قبول نیست.”

از این گذشته ، صرف این که کاری می توان انجام داد به معنای آن نیست باید ساخته شدن. شرکت ها می توانند با به کار نگرفتن زیاد ، از بسیاری از نگرانی ها ، هزینه ها و مسئولیت های احتمالی جلوگیری کنند و در عوض یک رویکرد جامع اتخاذ کنند که خطر توسعه و استفاده از هوش مصنوعی را تشخیص دهد.

مطالب مرتبط

آنچه وکلا می خواهند همه در مورد مسئولیت هوش مصنوعی بدانند

سمت تاریک هوش مصنوعی: چگونه هوش مصنوعی را قابل اعتماد کنیم

گزارش هوش مصنوعی: با مسئولیت خود ادامه دهید

لیزا مورگان یک نویسنده مستقل است که داده های بزرگ و BI را برای InformationWeek پوشش می دهد. وی در مقالات ، گزارش ها و انواع دیگر مطالب در نشریات و سایت های مختلف شرکت کرده است ، از SD Times گرفته تا واحد هوشمند اکونومیست. مناطق مشترک پوشش شامل … بیوگرافی کامل را ببینید

ما از نظرات شما در مورد این موضوع در کانال های رسانه های اجتماعی خود استقبال می کنیم ، یا [contact us directly] با س questionsال در مورد سایت.

مقالات بیشتر



[ad_2]

منبع: tasiveh-news.ir