حق توضیح یا Right to explanation چیست؟
در تنظیم الگوریتمها، بهویژه هوش مصنوعی و زیرشاخه یادگیری ماشینی آن، حق توضیح برای خروجی الگوریتم است. چنین حقوقی در درجه اول به حقوق فردی اشاره دارد که باید برای تصمیماتی که به طور قابل توجهی بر یک فرد تأثیر می گذارد، توضیح داده شود، به ویژه از نظر حقوقی یا مالی. به عنوان مثال، شخصی که درخواست وام می دهد و رد می شود ممکن است توضیحی بخواهد، که می تواند این باشد که “اداره اعتبار X گزارش می دهد که شما در سال گذشته اعلام ورشکستگی کرده اید؛ این عامل اصلی در نظر گرفتن بیش از حد احتمال نکول شما است، و بنابراین ما وامی را که درخواست کرده اید به شما نمی دهد.” برخی از این حقوق قانونی در حال حاضر وجود دارد، در حالی که دامنه یک “حق توضیح” عمومی موضوع بحث مداوم است.
حق توضیح یا Right to explanation
مثال ها: امتیازدهی اعتباری در ایالات متحده
بر اساس قانون فرصت های اعتباری برابر (مقررات B قانون مقررات فدرال)، عنوان 12، فصل X، قسمت 1002، §1002.9، طلبکاران موظفند به متقاضیانی که از اعتبار محروم شده اند با دلایل خاص برای جزئیات مطلع شوند. همانطور که در §1002.9 (b) (2) توضیح داده شده است: (2) بیان دلایل خاص. بیان دلایل اقدام نامطلوب مورد نیاز بند (الف) (2) (i) این بخش باید مشخص باشد و دلیل یا دلایل اصلی اقدام نامطلوب را نشان دهد. اظهارات مبنی بر اینکه اقدام نامطلوب بر اساس استانداردها یا سیاست های داخلی اعتبار دهنده بوده است یا اینکه متقاضی، متقاضی مشترک یا طرف مشابه نتوانسته اند امتیاز واجد شرایط را در سیستم امتیازدهی اعتبار طلبکار به دست آورند، کافی نیستند. در تفسیر رسمی این بخش توضیح داده می شود که چه نوع اظهاراتی قابل قبول است. اعتبار دهندگان با ارائه فهرستی از دلایل (به طور کلی حداکثر 4، در هر تفسیر مقررات)، متشکل از یک کد دلیل عددی (به عنوان شناسه) و توضیح مرتبط، با شناسایی عوامل اصلی مؤثر بر امتیاز اعتباری، از این مقررات پیروی می کنند.
مثالی از حق توضیح در اتحادیه اروپا
مقررات عمومی حفاظت از دادههای اتحادیه اروپا (مصوب 2016 و در سال 2018 اجرا میشود) حقوق تصمیمگیری خودکار در دستورالعمل حفاظت از دادهها در سال 1995 را گسترش میدهد تا یک شکل حقوقی مورد مناقشه از حق توضیح ارائه شود که در بند 71 بیان شده است: موضوع داده ها باید این حق را داشته باشد که … توضیحاتی در مورد تصمیم گرفته شده به دست آورد: موضوع داده ها باید این حق را داشته باشد که مشمول تصمیمی نباشد، که ممکن است شامل اقدامی باشد، ارزیابی جنبه های شخصی مربوط به او که صرفاً مبتنی بر پردازش خودکار است و آثار حقوقی مربوط به او ایجاد می کند یا به طور مشابه تأثیر قابل توجهی بر او می گذارد. یا او، مانند امتناع خودکار درخواست اعتبار آنلاین یا شیوه های استخدام الکترونیکی بدون دخالت انسانی. در هر صورت، چنین پردازشی باید مشمول پادمانهای مناسبی باشد، که باید شامل اطلاعات خاص برای موضوع دادهها و حق دستیابی به مداخله انسانی، بیان دیدگاههای خود، برای به دست آوردن توضیحی درباره تصمیم اتخاذ شده پس از چنین ارزیابی باشد. و تصمیم را به چالش بکشد.
انتقادات به حق توضیح
با این حال، میزانی که خود مقررات «حق توضیح» را ارائه میکند، به شدت مورد بحث است. دو رشته اصلی انتقاد وجود دارد. مسائل حقوقی قابل توجهی در مورد حق وجود دارد که در ماده 22 آمده است – زیرا مقدمات لازم الاجرا نیستند و حق توضیح در مواد لازم الاجرای متن ذکر نشده است که در طی مراحل قانونگذاری حذف شده است. علاوه بر این، محدودیتهای قابلتوجهی در مورد انواع تصمیمات خودکاری که تحت پوشش قرار میگیرند وجود دارد – که هم باید «صرفاً» مبتنی بر پردازش خودکار باشد و هم تأثیرات قانونی یا مشابهی داشته باشد – که بهطور قابلتوجهی دامنه سیستمها و تصمیمهای خودکار را محدود میکند. حق اعمال خواهد شد. به ویژه، بعید است که حق در بسیاری از موارد مناقشه الگوریتمی که در رسانه ها مطرح شده است اعمال شود.
دومین منبع بالقوه چنین حقی در ماده 15، «حق دسترسی موضوع داده» اشاره شده است. این یک ماده مشابه از دستورالعمل حفاظت از دادهها در سال 1995 را بازگو میکند و به موضوع دادهها اجازه میدهد به «اطلاعات معنیدار درباره منطق مربوطه» در همان تصمیمگیری مهم و صرفاً خودکار موجود در ماده 22 دسترسی داشته باشند. مربوط به زمان زمانی است که می توان از این حق استفاده کرد، و همچنین چالش های عملی که به این معنی است که ممکن است در بسیاری از موارد نگرانی عمومی الزام آور نباشد.
آیا حق توضیح سرکوب کننده است؟
برخی استدلال می کنند که «حق توضیح» در بهترین حالت غیر ضروری و در بدترین حالت مضر است و تهدیدی برای سرکوب نوآوری است. انتقادات خاص عبارتند از: ترجیح تصمیمات انسانی بر تصمیمات ماشینی. مازاد بر قوانین موجود؛ و تمرکز بر فرآیند بر نتیجه. اساساً، بسیاری از الگوریتمهای مورد استفاده در یادگیری ماشینی به راحتی قابل توضیح نیستند. به عنوان مثال، خروجی یک شبکه عصبی عمیق به لایههای محاسباتی زیادی بستگی دارد که به روشی پیچیده به هم متصل شدهاند و هیچ ورودی یا محاسباتی ممکن است عامل غالب نباشد. حوزه هوش مصنوعی توضیح پذیر به دنبال ارائه توضیحات بهتر از الگوریتم های موجود و الگوریتم هایی است که به راحتی قابل توضیح هستند، اما این حوزه جوان و فعال است. به طور مشابه، تصمیمات انسانی اغلب نمی توانند به راحتی توضیح داده شوند: آنها ممکن است مبتنی بر شهود یا “احساس درونی” باشند که به سختی در کلمات بیان شود. می توان استدلال کرد که ماشین ها نباید استانداردهای بالاتری نسبت به انسان ها داشته باشند.
ارسال پاسخ