خطرات هوش مصنوعی برای انسان
با گسترش در علم هوش مصنوعی، ممکن است که این سوال برایتان پیش بیاید که این دانش چه خطراتی برای انسان دارد، یک متخصص در رشتهی هوش مصنوعی به این سوال پاسخ میدهد: آرِند هینتز، استادیار رشته زیستشناسی و علوم کامپیوتر و مهندسی از دانشگاه میشیگان آمریکا، به عنوان یک توسعه دهنده در زمینه هوش مصنوعی به آسیبشناسی این ماشینها میپردازد و به ترسهایی که درباره آنها وجود دارد، پاسخ میدهد: به عنوان یک محقق در رشتهی هوش مصنوعی اغلب با این ایده روبهرو میشوم که بیشتر مردم از آنچه ممکن است هوش مصنوعی به آن تبدیل شود، میترسند. شاید این موضوع تعجبآور نبوده؛ این ترس به علت نوع نگاهی است که تاریخ و صنعت سینما به ما داده است؛ نگاهی که به ما ترس از سلطهی سایبرنتیک را القا میکند و همانگونه که در فیلم ماتریکس مشاهده کردهاید، به ما هشدار میدهد که نیروهایی میآیند و ما را بعنوان باتریهای انسانی در محفظههایی زندانی میکنند. برای من که به عنوان توسعه دهندهی رشتهی هوش مصنوعی از مدلهای کامپیوتری برای تکامل آن به کار میبرم، فکر کردن به این مسئله که در آینده این موجودات بیگناه مجازی به هیولاهایی تبدیل میشوند، سخت است.
خطرات هوش مصنوعی برای انسان
ترس از اتفاقات از قبل پیش بینی نشده
کامپیوتر HAL 9000 که آرتور سی کلارک، نویسندهی داستان علمی تخیلی، در رؤیای خود داشت مثال مناسبی است از سیستمی که به علت پیامدهای ناخواسته، شکست خورد. در بیشتر سیستمهای پیچیده مثل کشتی تایتانیک و شاتل فضایی ناسا و نیروگاه هستهای چرنوبیل مهندسان لایههای زیادی از اجزای گوناگون را با همدیگر ترکیب میکنند. طراحان امکان دارد به خوبی این مسئله را بدانند که هر جزء به تنهایی چطور کار میکند؛ ولی اغلب از این موضوع که قطعات در ارتباط با همدیگر چطور عمل میکنند، آگاهی کافی ندارند؛ نتیجهی این آگاهی کم، سیستمی است که هرگز به صورت کامل درک نمیشود و امکان دارد که در شیوههای پیش بینی نشده شکست بخورد؛ در هر فاجعهای مثل غرق شدن یک کشتی و انفجار دو شاتل فضایی و گسترش آلودگیهای رادیواکتیو در قاره اروپا و آسیا، اشتباهات کوچک با هم ترکیب میشوند و سبب به وجود آمدن یک فاجعه میشوند. در تحقیقات هوش مصنوعی هم امکان دارد چنین اشتباهاتی اتفاق بیفتد. ما به آخرین دستاوردهای علوم شناختی و ادراکی نگاهی میاندازیم، آنها را به الگوریتم تبدیل میکنیم و به سیستمهای موجود اضافه میکنیم؛ در این راه مهندسان سعی میکنند بدون آنکه در قدم اول هوش یا شناخت را درک کنند، هوش مصنوعی را بسازند. سیستمهایی مثل Watson IBM و Alpha google به شبکههای عصبی مصنوعی و حجم بزرگی از توان پردازشی تجهیز شدند و شاهکارهای چشمگیری را صورت دادند. عواقب این اشتباهات سبب تغییر در دنیا نمیشود؛ در حقیقت بدترین اتفاقی که ممکن است اتفاق بیفتد این است که فردی مقداری از پولی را که روی موفقیت هوش مصنوعی شرطبندی کرده است، از دست بدهد؛ ولی چون طراحی هوش مصنوعی در حال دشوارتر شدن است و پردازندههای کامپیوتر هم سریعتر شدهاند، مهارت این سیستمها افزایش چشمگیری یافته است. این کار سبب میشود که حتی اگر خطر پیامدهای ناخواسته افزایش یابد، مسئولیتهای بیشتری به این سیستمها داده شود؛ و از آنجایی که انسان جایزالخطا است، به نظر میرسد که ساختن سیستمی کاملا ایمن غیر ممکن هست.
پیشنهاد نویسنده: شاخههای مختلف هوش مصنوعی چیست؟



















آیا ترس از AI بیشتر روانی هست یا واقعا در آینده ممکنه تهدید واقعی باشه؟
این ترسها تا حد زیادی ریشه در تصورات سینمایی دارند، اما همانطور که در متن اشاره شد، پیامدهای ناخواسته در سیستمهای پیچیده همیشه وجود داشته و در هوش مصنوعی نیز میتواند به تهدید واقعی تبدیل شود.
آیا استفاده از علوم شناختی و ادراکی برای آموزش AI همیشه قابل اعتماد هست؟
استفاده از علوم شناختی و ادراکی در آموزش هوش مصنوعی میتواند بسیار مفید باشد، اما همیشه باید با دقت و در نظر گرفتن محدودیتهای آن صورت گیرد.
آیا میشه هوش مصنوعی کاملا ایمن طراحی کرد یا همیشه ریسک وجود داره؟
با توجه به پیچیدگی سیستمها و خطاپذیری انسان، طراحی هوش مصنوعی کاملاً ایمن چالشبرانگیز است و همیشه ریسکهای احتمالی وجود دارد.
آیا افزایش توان پردازشی هوش مصنوعی به معنی افزایش خطر هم هست؟
بله، افزایش توان پردازشی هوش مصنوعی میتواند به طور بالقوه خطرات ناشی از پیامدهای ناخواسته را افزایش دهد، چرا که این سیستمها پیچیدهتر و قدرتمندتر میشوند.
آیا واقعا امکان داره هوش مصنوعی بدون کنترل انسان به مشکل بزرگی تبدیل بشه؟
این سوال بسیار مهمی است و همانطور که در متن اشاره شد، نگرانی از پیامدهای ناخواسته و عدم درک کامل سیستمهای پیچیده هوش مصنوعی، میتواند به چالشهایی منجر شود.