حق توضیح یا Right to explanation چیست؟
در تنظیم الگوریتمها، بهویژه هوش مصنوعی و زیرشاخه یادگیری ماشینی آن، حق توضیح برای خروجی الگوریتم است. چنین حقوقی در درجه اول به حقوق فردی اشاره دارد که باید برای تصمیماتی که به طور قابل توجهی بر یک فرد تأثیر میگذارد، توضیح داده شود، به ویژه از نظر حقوقی یا مالی. به عنوان مثال، شخصی که درخواست وام میدهد و رد میشود ممکن است توضیحی بخواهد، که میتواند این شود که “اداره اعتبار X گزارش میدهد که شما در سال گذشته اعلام ورشکستگی کردهاید؛ این عامل اصلی در نظر گرفتن بیش از حد احتمال نکول شما است، و بنابراین ما وامی را که درخواست کردهاید به شما نمیدهد.” برخی از این حقوق قانونی در حال حاضر وجود دارد، در حالی که دامنه یک “حق توضیح” عمومی موضوع بحث مداوم است.
حق توضیح یا Right to explanation چیست؟
مثالها: امتیازدهی اعتباری در ایالات متحده
بر اساس قانون فرصتهای اعتباری برابر (مقررات B قانون مقررات فدرال)، عنوان 12، فصل X، قسمت 1002، §1002.9، طلبکاران موظفند به متقاضیانی که از اعتبار محروم شدهاند با دلایل خاص برای جزئیات مطلع شوند. همانطور که در §1002.9 (b) (2) توضیح داده شده است: (2) بیان دلایل خاص. بیان دلایل اقدام نامطلوب مورد نیاز بند (الف) (2) (i) این بخش باید مشخص شود و دلیل یا دلایل اصلی اقدام نامطلوب را نشان دهد. اظهارات مبنی بر اینکه اقدام نامطلوب بر اساس استانداردها یا سیاستهای داخلی اعتبار دهنده بوده است یا اینکه متقاضی، متقاضی مشترک یا طرف مشابه نتوانستهاند امتیاز واجد شرایط را در سیستم امتیازدهی اعتبار طلبکار به دست آورند، کافی نیستند. در تفسیر رسمی این بخش توضیح داده میشود که چه نوع اظهاراتی قابل قبول است. اعتبار دهندگان با ارائه فهرستی از دلایل (به طور کلی حداکثر 4، در هر تفسیر مقررات)، متشکل از یک کد دلیل عددی (به عنوان شناسه) و توضیح مرتبط، با شناسایی عوامل اصلی مؤثر بر امتیاز اعتباری، از این مقررات پیروی میکنند.
مثالی از حق توضیح در اتحادیه اروپا
مقررات عمومی حفاظت از دادههای اتحادیه اروپا (مصوب 2016 و در سال 2018 اجرا میشود) حقوق تصمیمگیری خودکار در دستورالعمل حفاظت از دادهها در سال 1995 را گسترش میدهد تا یک شکل حقوقی مورد مناقشه از حق توضیح ارائه شود که در بند 71 بیان شده است: موضوع دادهها باید این حق را پیدا کنند که، توضیحاتی در مورد تصمیم گرفته شده به دست آورد: موضوع دادهها باید این حق را پیدا کنند که مشمول تصمیمی نشود، که ممکن است شامل اقدامی بشود، ارزیابی جنبههای شخصی مربوط به او که صرفاً مبتنی بر پردازش خودکار است و آثار حقوقی مربوط به او ایجاد میکند یا به طور مشابه تأثیر قابل توجهی بر او میگذارد. یا او، مانند امتناع خودکار درخواست اعتبار آنلاین یا شیوههای استخدام الکترونیکی بدون دخالت انسانی. در هر صورت، چنین پردازشی باید مشمول پادمانهای مناسبی است، که باید شامل اطلاعات خاص برای موضوع دادهها و حق دستیابی به مداخله انسانی، بیان دیدگاههای خود، برای به دست آوردن توضیحی درباره تصمیم اتخاذ شده پس از چنین ارزیابی گردد. و تصمیم را به چالش بکشد.
انتقادات به حق توضیح
با این حال، میزانی که خود مقررات «حق توضیح» را ارائه میکند، به شدت مورد بحث است. دو رشته اصلی انتقاد وجود دارد. مسائل حقوقی قابل توجهی در مورد حق وجود دارد که در ماده 22 آمده است؛ زیرا مقدمات لازم الاجرا نیستند و حق توضیح در مواد لازم الاجرای متن ذکر نشده است که در طی مراحل قانون گذاری حذف شده است. علاوه بر این، محدودیتهای قابل توجهی در مورد انواع تصمیمات خودکاری که تحت پوشش قرار میگیرند وجود دارد، که هم باید «صرفاً» مبتنی بر پردازش خودکار است و هم تأثیرات قانونی یا مشابهی داشته که بهطور قابلتوجهی دامنه سیستمها و تصمیمهای خودکار را محدود میکند. حق اعمال خواهد شد. به ویژه، بعید است که حق در بسیاری از موارد مناقشه الگوریتمی که در رسانهها مطرح شده است اعمال شود. دومین منبع بالقوه چنین حقی در ماده 15، «حق دسترسی موضوع داده» اشاره شده است. این یک ماده مشابه از دستورالعمل حفاظت از دادهها در سال 1995 را بازگو میکند و به موضوع دادهها اجازه میدهد به «اطلاعات معنیدار درباره منطق مربوطه» در همان تصمیمگیری مهم و صرفاً خودکار موجود در ماده 22 دسترسی پیدا کنند. مربوط به زمان زمانی است که میتوان از این حق استفاده کرد، و همچنین چالشهای عملی که به این معنی است که ممکن است در بسیاری از موارد نگرانی عمومی الزام آور نشود.
آیا حق توضیح سرکوب کننده است؟
برخی استدلال میکنند که «حق توضیح» در بهترین حالت غیر ضروری و در بدترین حالت مضر است و تهدیدی برای سرکوب نوآوری است. انتقادات خاص عبارتند از: ترجیح تصمیمات انسانی بر تصمیمات ماشینی. مازاد بر قوانین موجود؛ و تمرکز بر فرآیند بر نتیجه. اساساً، بسیاری از الگوریتمهای مورد استفاده در یادگیری ماشینی به راحتی قابل توضیح نیستند. به عنوان مثال، خروجی یک شبکه عصبی عمیق به لایههای محاسباتی زیادی بستگی دارد که به روشی پیچیده به هم متصل شدهاند و هیچ ورودی یا محاسباتی ممکن است عامل غالب نشود. حوزه هوش مصنوعی توضیح پذیر به دنبال ارائه توضیحات بهتر از الگوریتمهای موجود و الگوریتمهایی است که به راحتی قابل توضیح هستند، اما این حوزه جوان و فعال است. به طور مشابه، تصمیمات انسانی اغلب نمیتوانند به راحتی توضیح داده شوند: آنها ممکن است مبتنی بر شهود یا “احساس درونی” شوند که به سختی در کلمات بیان شود. میتوان استدلال کرد که ماشینها نباید استانداردهای بالاتری نسبت به انسانها پیدا کنند.
ارسال پاسخ