آنچه وکلا می خواهند همه در مورد مسئولیت هوش مصنوعی بدانند


امروزه بحث های بیشتری در مورد اخلاق هوش مصنوعی و هوش مصنوعی مسئول وجود دارد ، اما شرکت ها باید از مشکلات احتمالی هوش مصنوعی آگاه باشند.

تصویر: سیکوف - stock.adobe.com

تصویر: سیکوف – stock.adobe.com

با ورود عمیق هوش مصنوعی به شرکتها ، شرکتها با اصول و ارزشهای اخلاقی به ابتکار عمل هوش مصنوعی و مسئولیتهای هوش مصنوعی پاسخ می دهند. با این حال ، تبدیل ایده آل های والا به عملی بسیار دشوار است ، دلیل اصلی آن این است که چیز جدیدی است که باید در خطوط لوله DataOps ، MLOps ، AIOps و DevOps تعبیه شود.

درمورد نیاز به هوش مصنوعی شفاف یا قابل توضیح زیاد صحبت می شود. با این حال ، کمتر درمورد پاسخگویی بحث می شود ، که این یک مورد اخلاقی دیگر است. وقتی مشکلی در هوش مصنوعی رخ می دهد ، مقصر کیست؟ سازندگان ، کاربران یا کسانی که اجازه استفاده از آن را داده اند؟

شان گریفین ، یکی از اعضای دادخواست های تجاری و گروه امنیت اطلاعات و حریم خصوصی در دایکما ، گفت: “من فکر می کنم افرادی که هوش مصنوعی را پیاده سازی می کنند از تخیل خود استفاده می کنند تا ببینند چه مشکلی ممکن است رخ دهد و آیا ما برای جلوگیری از آن اقدامات کافی انجام داده ایم. شرکت حقوقی “قانون مورفی شکست ناپذیر است. حداقل شما می خواهید برای آنچه اتفاق افتاده برنامه ای داشته باشید.”

شان گریفین ، دیکما

شان گریفین ، دیکما

مسئولیت واقعی به شواهد و واقعیت های پرونده بستگی خواهد داشت. به عنوان مثال ، آیا کاربر همانطور که در نظر گرفته شده از محصول استفاده می کند یا کاربر آن را اصلاح می کند؟

آیا بازاریابی دیجیتال می تواند سرنخ هایی را ارائه دهد؟

از برخی جهات ، مسئولیت هوش مصنوعی چیزی شبیه مفاهیم اسناد چند کاناله است که در بازاریابی دیجیتال استفاده می شود. انتساب چند کانال در نتیجه ساده سازی حاصل شده است که “انتساب آخرین کلیک” است. به عنوان مثال ، اگر کسی کالایی را به صورت آنلاین جستجو می کند ، در چندین سایت پیمایش می کند و سپس به تبلیغ پرداخت به ازای هر کلیک یا ایمیل پاسخ می دهد ، در صورت پیچیده تر بودن معامله ، آخرین کلیک منتهی به فروش 100٪ اعتبار فروش را دریافت می کند . اما چگونه می توان درصدی از فروش را به کانال های مختلفی که در آن کمک کرده اند نسبت داد؟

در حال حاضر بحث های مشابهی در محافل هوش مصنوعی در حال انجام است ، به ویژه در مورد قانون AI و مسئولیت احتمالی آن. اکنون چارچوبهایی برای کمک به سازمانها در جهت تبدیل اصول و ارزشهای خود به روشهای مدیریت ریسک ایجاد شده است که می توانند در فرآیندها و گردش کار ادغام شوند.

ربات های منابع انسانی

بخشهای بیشتری از منابع انسانی از چت رباتهای هوش مصنوعی به عنوان اولین خط غربالگری کاندیداها استفاده می کنند زیرا چه کسی می خواهد دریایی از رزومه ها را بخواند و با نامزدهایی که در واقع برای این موقعیت مناسب نیستند مصاحبه کند؟

پل استاركمن ، رهبر گروه ، گفت: “این چیزی است كه من به عنوان یك وكیل استخدام می بینم. به طور فزاینده ای در تمام مراحل استخدام ، از مصاحبه شغلی گرفته تا شبانه روزی ، آموزش ، مشاركت كاركنان ، امنیت و حضور در آن مورد استفاده قرار می گیرد.” كلارك هیل. “حالا من مواردی وجود دارد که افراد در ایلینوی بر اساس استفاده از این فناوری محاکمه می شوند و سعی می کنند بفهمند مسئول مسئولیت حقوقی چه کسی است و آیا می توانید برای آن تحت پوشش بیمه قرار بگیرید. “

پل استارکمن ، کلارک هیل

پل استارکمن ، کلارک هیل

ایلینوی تنها ایالت در ایالات متحده با وضعیت هوش مصنوعی در مصاحبه های ویدیویی است. این امر از شرکت ها خواسته است که اخطار داده و رضایت صریح مصاحبه شونده را بدست آورند.

خطر دیگر این است که ممکن است هنوز تعصبات ذاتی در داده های آموزشی سیستم مورد استفاده برای شناسایی نامزدهای احتمالی “موفق” وجود داشته باشد.

سپس نظارت بر کارمندان وجود دارد. برخی از مدیران ناوگان رفتار و درجه حرارت رانندگان را کنترل می کنند.

پیتر كاسات ، یك شركت در موسسه حقوقی Culhane Meadows گفت: “اگر مشكوك هستید كه شخصی از مواد مخدر استفاده می كند ، باید مراقب باشید ، زیرا در غیر این صورت من را جدا كرده اید.”

البته یکی از بزرگترین نگرانیها در مورد اتوماسیون منابع انسانی تبعیض است.

“چگونه می توانید این خطر را برای تأثیرات مختلف متفاوت کاهش دهید ، در حالی که نمی دانید علاوه بر نامزد کردن یا حذف نامزدها ، چه عواملی را باید در بر گرفت؟” گفت میکی چیچستر جونیور ، سهامدار و رئیس گروه رباتیک ، هوش مصنوعی و گروه تمرین خودرو در قانون Littler محکم “ذینفعان مناسب را در هنگام استفاده از فناوری درگیر کنید.”

میکی چیچستر ، لیتر

میکی چیچستر ، لیتر

بیومتریک

هیچ داده ای بیشتر از بیومتریک شخصی نیست. ایلینوی قانون خاصی دارد به نام قانون حفاظت اطلاعات بیومتریک (BIPA) ، که نیاز به اخطار و رضایت دارد.

یک مورد قابل توجه از BIPA شامل فیس بوک است که در یک توافق نامه جمع آوری اطلاعات شناسایی چهره در مورد 1.6 میلیون نفر از ساکنان ایلینوی به پرداخت 650 میلیون دلار محکوم شد.

استاركمن به كلارك هیل گفت: “شما همیشه می توانید گواهینامه رانندگی یا شماره تأمین اجتماعی خود را تغییر دهید ، اما نمی توانید اثر انگشت یا داده های تجزیه و تحلیل چهره خود را تغییر دهید.” “[BIPA] یک دام برای کارفرمایان بی پروا است که در بسیاری از کشورها کار می کنند و از این نوع فن آوری استفاده می کنند. آنها می توانند با اقدامات طبقاتی و صدها هزار دلار مجازات قانونی به دلیل نافرمانی از دستورات BIPA مورد ضرب و شتم قرار گیرند. “

اتومبیل های خودمختار

وسایل نقلیه خودمختار شامل کلیه موارد حقوقی از مالکیت معنوی و مسئولیت محصول تا عدم رعایت آن می باشد. واضح است که یکی از نگرانی های اصلی ایمنی است ، اما اگر وسیله نقلیه مستقلی از عابر پیاده عبور کرده باشد ، چه کسی باید مسئول آن باشد؟ حتی اگر تولید کننده اتومبیل به عنوان تنها نتیجه یک نتیجه مشخص شناخته شود ، ممکن است تنها سازنده خودرو مسئولیت آن را بر عهده نداشته باشد.

دیوید گفت: “از نقطه نظر عملی ، تولیدكنندگان اتومبیل اغلب به تولیدكنندگان قطعات می گویند ،” ما فقط این مبلغ را پرداخت خواهیم كرد و شما باید بقیه را نیز پرداخت كنید “، حتی اگر همه متوجه شوند كه سازنده خودرو كسی است كه گیج شده است. گرینبرگ ، یکی از شرکای شرکت گرینبرگ و روبی. “مهم نیست که این تولید کنندگان چقدر باهوش هستند ، هر تعداد مهندس داشته باشند ، آنها دائماً مورد شکایت قرار می گیرند ، و من فرض نمی کنم که محصولات حتی پیچیده تر باشند. من فکر می کنم این یک میدان عظیم برای مصدومیت خواهد بود [and] وکلای مربوط به مسئولیت محصول با این محصولات مختلف ، گرچه ممکن است محصولی نباشد که بتواند صدمات فاجعه بار ایجاد کند. “

دیوید گرینبرگ ، گرینبرگ و رودی

دیوید گرینبرگ ، گرینبرگ و رودی

مالکیت معنوی

قانون مالکیت معنوی چهار حوزه اصلی را شامل می شود: حق ثبت اختراع ، علائم تجاری ، حق چاپ و اسرار تجاری. بسته به اینکه مشکل از طراحی کاربردی یا استفاده (حق ثبت اختراع) ، مارک تجاری (علائم تجاری) ، محافظت از محتوا (حق چاپ) یا سس راز شرکت (راز تجاری) باشد ، هوش مصنوعی همه این مناطق را پنهان می کند. اگرچه فضای کافی برای گفتگو در مورد تمام موضوعات موجود در این مقاله وجود ندارد ، اما یکی از مواردی که باید مورد توجه قرار گیرد ، موارد AI مربوط به مجوز ثبت اختراع و حق چاپ است.

“کارهای IP زیادی در مورد صدور مجوز داده وجود دارد. به عنوان مثال ، دانشگاه ها داده های زیادی دارند و بنابراین آنها در مورد روش هایی که می توانند داده ها را مجوز دهند به حقوق کسانی که داده ها را با رضایت ، محرمانه بودن آنها از آنها به دست می آورند ، احترام می گذارند ، فکر می کنند اما همچنین برای مجوز باید مقداری ارزش قائل شد. ” “هوش مصنوعی شامل طیف کاملی از مواردی است که وقتی به طور کلی به نرم افزار فکر می کنید معمولاً به آنها فکر نمی کنید. این طرف کل داده وجود دارد که شما باید اطلاعات مربوط به آموزش را بدست آورید ، باید در اطراف آن قرارداد ببندید ، باید مطمئن شوید که ما بسیاری از قوانین حریم خصوصی را رعایت کرده ایم. “

همانطور که در طول تاریخ اتفاق افتاده است ، سرعت نوآوری در فن آوری بیش از سرعت حرکت مقامات دولتی ، قانونگذاران و دادگاه ها است. در حقیقت ، رودوی گفت اگر یک شرکت در شش ماه منسوخ شود ، می تواند تصمیم بگیرد که الگوریتمی را ثبت نکند.

ردیف پایین

شرکت ها بیشتر از گذشته در مورد خطرات هوش مصنوعی فکر می کنند و بحث ها باید چند منظوره باشد ، زیرا تکنسین ها همه خطرات احتمالی را نمی فهمند و غیرتکنولوژیست ها جزئیات فنی هوش مصنوعی را درک نمی کنند.

رودوی گفت: “شما باید اشخاص حقوقی ، مدیریت ریسک و افرادی را که سیستم های هوش مصنوعی می سازند درگیر کنید ، آنها را در یک اتاق قرار دهید و به آنها کمک کنید تا به یک زبان صحبت کنند.” “آیا می بینم این اتفاق در همه جا رخ می دهد؟ نه. آیا آنها بزرگتر هستند؟ [companies] انجام آن؟ آره. “

این مقاله ها را در مورد اخلاق و مسئولیت پذیری هوش مصنوعی دنبال کنید:

مسئولیت پذیری هوش مصنوعی: با مسئولیت خود ادامه دهید

چرا اکنون اخلاق در هوش مصنوعی از اهمیت بیشتری برخوردار است

برای داشتن صداقت در شرکت ها ، مدیریت هوش مصنوعی و نه بهترین اهداف را ایجاد کنید

لیزا مورگان یک نویسنده مستقل است که داده های بزرگ و BI را برای InformationWeek پوشش می دهد. وی در مقالات ، گزارش ها و انواع دیگر مطالب در نشریات و سایت های مختلف شرکت کرده است ، از SD Times گرفته تا واحد هوشمند اکونومیست. مناطق مشترک پوشش شامل … بیوگرافی کامل را ببینید

ما از نظرات شما در مورد این موضوع در کانال های رسانه های اجتماعی خود استقبال می کنیم [contact us directly] با س questionsال در مورد سایت.

مقالات بیشتر




منبع: tasiveh-news.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>