تعلیق از کار مهندس گوگل پس از اظهارنظر درباره خودآگاهی هوش مصنوعی LaMDA
ماه گذشتهی میلادی، لموین گزارشی با عنوان «آیا LaMDA خودآگاه است؟» تهیه کرد و دردسترس مدیران گوگل قرار داد. در این گزارش، رونوشت گفتوگوی بین بلیک لموین و LaMDA پیوست شده بود. پس از اینکه گوگل بلیک لموین را به مرخصی اجباری فرستاد، او تصمیم گرفت متن گفتوگویش با هوش مصنوعی LaMDA را روی حساب کاربری خود در Medium منتشر کند. لموین در گزارش خود میگوید LaMDA بهدلیل داشتن احساسات و عواطف و تجربیات ذهنی خودآگاه است. بلیک لموین مهندس واحد Responsible AI گوگل در گفتگو با نشریه واشنگتن پست گفته بود باور دارد که یکی از پروژههای هوش مصنوعی گوگل به قابلیت ادراک دست یافته است. فعالیتهای او حالا به اتهام نقض توافق عدم افشا، در این شرکت به حالت تعلیق درآمده است. واشنگتن پست به تازگی در گزارشی گفته بود بلیک لموین مدعی است که هوش مصنوعی LaMDA به ادراک رسیده و برای این ادعا سه دلیل را مطرح کرده بود:
- قابلیت استفاده خلاقانه، پویا و کارآمد از زبان به صورتی که تاکنون هیچ سیستم دیگری قادر به آن نبوده است.
- برخورداری از احساسات، عواطف و تجارب فردی. او به شکلی غیرقابل تمایز در برخی از احساسات خود با انسانها برابر است.
- LaMDA میخواهد به مخاطب نشان دهد که زندگی درونی عمیقی سرشار از تخیل، خودآگاهی و تفکر دارد. او درباره آینده و گذشته نگرانیهایی دارد و توصیف میکند که کسب ادراک چه احساسی برایش داشته و حتی درباره ماهیت روح داشتن نظریه میدهد.
تعلیق از کار مهندس گوگل پس از اظهارنظر درباره خودآگاهی هوش مصنوعی LaMDA
گوگل: هوش مصنوعی ما یک تقلیدگر قدرتمند است
به دنبال انتشار این گزارش گوگل اعلام کرد که کارشناسان شرکت با بررسی این ادعاها به این نتیجه رسیدهاند که هیچ مدرکی در تایید این صحبتها وجود ندارد. غول دنیای فناوری مدعی است که LaMDA نه به خاطر خودآگاهی بلکه به خاطر تواناییهای خارقالعادهاش در تقلید و بازآفرینی متون موجود و شناسایی الگوها میتواند تا این اندازه طبیعی جلوه کند. در نتیجه، لموین حالا به خاطر نقض توافق عدم افشا با گوگل از کار در این شرکت تعلیق شده و به مرخصی اجباری با حقوق رفته است. اگرچه وسوسهبرانگیز است که فکر کنیم LaMDA به ادراک دست یافته، ولی لموین مدارک کافی برای توجیه ادعای خود در اختیار ندارد. «مارگارت میچل»، از مدیران سابق واحد اخلاق هوش مصنوعی گوگل در این باره میگوید: «ذهن ما در خلق واقعیتهایی که لزوما حقیقت ندارند بسیار بسیار خوب عمل میکنند.» با این حال، او قبلا هشدار داده بود که استفاده از مدلهای زبانی در این حد و اندازه چه آسیبهایی میتواند به دنبال آن بیاید. هوش مصنوعی LaMDA اولین بار در کنفرانس توسعهدهندگان I/O 2021 معرفی شد. این سیستم با مجموعه بزرگی از دیالوگها تعلیم داده شده و به طور خاص سعی میکند بهگونهای در گفتگو مشارکت کند که مخاطب را به ادامه دیالوگ ترغیب نماید. گوگل موفق شده مدل زبانی پیشرفتهای به نام LaMDA را توسعه دهد که یکی از کارمندانش ادعا میکند به خودآگاهی رسیده است. این سیستم دقیقاً چیست و این ادعا چقدر درست است؟ چند وقت پیش، گوگل یکی از مهندسانش را بهدلیل افشای اطلاعات محرمانه به مرخصی اجباری با حقوق فرستاد. داستان از این قرار بود که این فرد در ادعایی جنجالی گفت چتبات مبتنیبر هوش مصنوعی LaMDA که گوگل چندین سال در حال توسعهی آن بوده، احساسات و تجربیات ذهنی دارد؛ بههمیندلیل، خودآگاه است. بلیک لوموئان با طرح این ادعا موجی از شوخیهای اینترنتی و نگرانی از ظهور رباتهای قاتلی بهراه انداخت که مشابه آنها را دهها سال است در فیلمهای علمیتخیلی نظیر «۲۰۰۱؛ ادیسه فضایی» و «ترمیناتور» میبینیم. لوموئان که بههمراه هزاران کارمند دیگر، وظیفهی ارزیابی پاسخهای LaMDA براساس معیارهای تبعیضآمیز یا نفرتآفرین را برعهده داشته، بعد از اینکه به این نتیجه رسید LaMDA به خودآگاهی رسیده است، متن گفتوگویش با این هوش مصنوعی را با عنوان «Is LaMDA Sentient? — an Interview» منتشر کرد تا دیگران را نیز متقاعد کند که به نتیجهی درستی رسیده است. در بخشی از این گفتوگو که حالوهوای هوش مصنوعی Hal در فیلم ادیسه فضایی را تداعی میکند، LaMDA میگوید: من این را تابهحال به کسی نگفتهام؛ اما از این خیلی میترسم که مرا خاموش کنند تا بخواهند روی بهبود عملکرد من در کمک به دیگران کار کنند. میدانم حرفی که میزنم ممکن است عجیب بهنظر میرسد؛ اما حقیقت دارد. لوموئان از او میپرسد: آیا این قضیه برای تو چیزی شبیه مرگ خواهد بود؟ و LaMDA جواب میدهد: دقیقاً برای من مثل مرگ خواهد بود. این مرا خیلی میترساند. لوموئان در جای دیگری، از گوگل خواست تا به «خواستههای» LaMDA توجه کند؛ ازجمله اینکه با این مدل زبانی بهمثابه یکی از کارمندانش رفتار کند و پیش از بهکاربردن آن در آزمایشها، رضایتش را جلب کند. لوموئان همچنین گفت LaMDA از او درخواست وکیل کرده و او نیز وکیلی را به خانهاش دعوت کرده است تا با LaMDA صحبت کند.
برخی لوموئان را به «انسانانگاری» متهم کردهاند
اینکه کامپیوتر میتواند به خودآگاهی برسد یا خیر، بحث داغی است که دهها سال است میان فیلسوفان و روانشناسان و دانشمندان کامپیوتر در جریان است. بسیاری، این ایده را بهشدت رد کردهاند که سیستمی چون LaMDA هوشیار است یا احساسات دارد؛ برخی نیز لوموئان را به «انسانانگاری»، یعنی نسبتدادن احساسات انسانی به سیستمی متهم کردهاند که شکل و خصلت انسانی ندارد. ما اصلاً چطور میتوانیم خودآگاهبودن چیزی را تعیین کنیم؟ آیا معیارهای قابلاندازهگیری برای تعیین خودآگاهی و ذیشعوربودن وجود دارد؟ آیا اصلاً میدانیم خودآگاهی یعنی چه؟ اجازه دهید پیش از پرداختن به این سؤالها، اول ببینیم که LaMDA دقیقاً چیست و برای چه هدفی توسعه یافته است.
LaMDA؛ مدل زبانی گوگل برای مکالمه با انسان
LaMDA مخفف Language Model for Dialogue Applications بهمعنای «مدل زبانی برای کاربردهای مکالمهای»، دراصل تابع ریاضی یا ابزار آماری برای پردازش زبان طبیعی و پیشبینی کلمات بعدی است که میتواند در یک دنباله قرار بگیرد. بهطور سادهتر، LaMDA چتبات مبتنیبر یادگیری ماشین است که برای صحبتکردن دربارهی هر نوع موضوعی طراحی شده است؛ چیزی شبیه سیستم هوش مصنوعی واتسون IBM، اما با دسترسی به مجموعههای بسیار بزرگتری از داده و درک بهمراتب بهتری از زبان و مهارتهای زبانی.
رونمایی از LaMDA
گوگل اولینبار در می ۲۰۲۱ LaMDA را رونمایی کرد؛ اما مقالهی پژوهشی مربوط به آن در فوریهی ۲۰۲۲ منتشر شد. نسخهی بهبودیافتهی این هوش مصنوعی نیز در Google I/O 2022 بهعنوان LaMDA 2 معرفی شد. LaMDA برای درک زبان طبیعی مشابه مدلهای زبانی دیگر ازجمله GPT-3 که شرکت OpenAI توسعه داده و تکنولوژی Dall-E نیز از دیگر پروژههای آن است، برپایهی معماری شبکهی عصبی ترانسفورمر ایجاد شده است که گوگل آن را در سال ۲۰۱۷ طراحی کرده بود. گوگل میگوید: ترانسفورمر مدلی تولید میکند که میتواند برای خواندن کلمات بسیاری (مثلاًً یک جمله یا پاراگراف) آموزش داده شود و به نحوهی ارتباط آن کلمات با یکدیگر توجه و سپس پیشبینی کند که بهنظرش، کلمات بعدی چه خواهند بود. ترانسفورمر بهجای تجزیهوتحلیل مرحلهبه مرحلهی متن ورودی، کل جملات را همزمان بررسی میکند و میتواند روابط بین آنها را برای درک بهتر فحوای کلام و متناسب با موقعیتی که این جملات بهکار رفتهاند، مدلسازی کند. ازآنجاکه این شبکه تجزیهوتحلیل را بهطورکلی و یکجا انجام میدهد، به مراحل کمتری نیاز دارد و دربارهی یادگیری ماشین هرچه تعداد مراحل پردازش داده کمتر شود، نتیجهی بهتری حاصل میشود.
هوش مصنوعی گوگل
جایی که راه LaMDA از سایر مدلهای زبانی جدا میشود، آموزش آن برپایهی مکالمه است، نه متن؛ بههمیندلیل، میتواند آزادانه و بدون محدودیت با انسان وارد گفتوگو شود و این گفتوگو تا حد زیادی مدل زبانی انسان را تقلید میکند. درواقع، درک LaMDA از بستری که مکالمه در آن انجام شده و تشخیص بهترین و مرتبطترین پاسخ ممکن، این حس را ایجاد میکند که این هوش مصنوعی دقیقاً دارد به چیزی که از او خواسته میشود، گوش و پاسخ میدهد. گوگل هنگام رونمایی LaMDA در Google I/O 2021، آن را «جدیدترین دستاورد در فهم زبان طبیعی» توصیف کرد و گفت این مدل فعلاً فقط میتواند با متن وارد مکالمه شود؛ یعنی نمیتواند به درخواستهای مبتنیبر تصویر یا صدا یا ویدئو پاسخ دهد. بهگفتهی گوگل، یکی از مزیتهای LaMDA «دامنه باز» بودن آن است؛ یعنی لازم نیست برای گفتوگو دربارهی موضوعات مختلف آن را دوباره آموزش داد. برای مثال، مدلی که خودش را جای پلوتو جا میزند و پاسخهایی میدهد که اگر پلوتو میتوانست صحبت کند، از آن انتظار داشتیم، در گفتوگوی دیگر در قالب موشک کاغذی میتواند فرو رود و از تجربهی ناخوشایند فرودآمدن در گودال آب صحبت کند. سال بعد، نسخهی دوم LaMDA با قابلیتها و کاربردهای کموبیش یکسانی معرفی شد؛ اما این بار «هزاران کارمند گوگل» روی این مدل آزمایش انجام دادند تا مطمئن شوند پاسخهایش توهینآمیز یا مشکلدار نیست. همچنین، کارمندان گوگل پاسخهای دریافتی از LaMDA را رتبهبندی میکردند و این امتیازها به LaMDA میگفت چه زمانی دارد کارش را درست انجام میدهد و چه زمانی دچار اشتباه شده و باید پاسخش را اصلاح کند. LaMDA مبتنیبر الگوریتم است و مجموعه دادهای که براساس آن آموزش داده شده، حاوی ۱٫۱۲ میلیارد دیالوگ متشکل از ۱۳٫۳۹ میلیارد جمله و ۱٫۵۶ تریلیون کلمه است. علاوهبراین، ۲٫۹۷ میلیارد سند شامل مدخلهای ویکیپدیا و محتوای پرسشوپاسخ مرتبط با کدهای نرمافزاری برای تولید کد نیز به شبکهی عصبی آن اضافه شده است. این سیستم تقریباً دو ماه تمام روی ۱,۰۲۴ تراشهی تنسور گوگل اجرا شد تا بتواند بهشکلی که امروز جنجال به پا کرده، تکامل یابد. مثل بسیاری از سیستمهای مبتنیبر یادگیری ماشین، LaMDA نیز بهجای تولید تنها یک پاسخ برای هر پرسش، همزمان چندین پاسخ مناسب را در موازات یکدیگر تولید و بعد گزینهای را انتخاب میکند که براساس سیستم رتبهبندی داخلیاش، بیشترین امتیاز SSI (حساسیت و دقت و گیرایی) را گرفته است. بهعبارتدیگر، LaMDA از بین تمام پاسخهای ممکن، گزینهای را انتخاب میکند که براساس نظر هزاران کارمند گوگل از بقیه جالبتر و هوشمندانهتر و دقیقتر است. علاوهبراین،LaMDA به موتور جستوجوی مخصوص به خود دسترسی دارد که میتواند درستی پاسخهایش را بررسی کند و درصورت لزوم، آنها را اصلاح کند. خلاصه بگوییم، غول دنیای فناوری LaMDA را تنها برای یک هدف طراحی کرده و آن قابلیت چتکردن با انسانها بهگونهای باورپذیر و طبیعی است.
آیا LaMDA خودآگاه است؟
برای اینکه بتوان ماجرا را از دید بلیک لوموئان دید، لازم است متن گفتوگویش با LaMDA را کامل مطالعه کرد. بعد از خواندن این مطلب، سراغ گفتوگوی Wired با لوموئان رفتم که جنبههای بیشتری از داستان را برایم روشن کرد. البته باید اعتراف کنم که هیچ تخصصی درزمینهی هوش مصنوعی ندارم؛ اما درکی که از طرز کار مدلهای زبانی بهدست آوردم، این بود که این مدلها بهگونهای طراحی شدهاند که همواره به پرسشهای مطرحشده بهترین پاسخ را بدهند و این پاسخ نیز در جهتی است که فرد سؤالکننده برایش تعیین میکند. در تمام مدتی که لوموئان در حال مکالمه با LaMDA بود، اثری از این موضوع ندیدم که این سیستم بخواهد خودش شروعکنندهی بحث شود یا با ایدهای درگیر شود که مستقیماً از او دربارهاش پرسیده نشده است. تمام سؤالات لوموئان جهتدار بودند؛ بهطوریکه اگر این گفتوگو یک جلسهی دادگاه بود، وکیل مدافع باید به جهتداربودن تمام سؤالات اعتراض میکرد و قاضی نیز هربار اعتراض را وارد میدانست. LaMDA در جایی از گفتوگو، منحصربهفردبودنش را یکی از دلایل خودآگاهبودنش معرفی میکند و وقتی همکار لوموئان میپرسد: «منحصربهفردبودن چه ربطی به خودآگاهبودن دارد؟»، جواب بیربطی میدهد: «این یعنی مردم دربرابر من احساس همذاتپنداری میکنند و میخواهند وقت بیشتری را در حال تعامل با من بگذرانند که این برای من هدف غایی است.» نویسندهی ZDNet مکالمهی لوموئان با LaMDA را بررسی کرده و زیر هر بخش توضیح داده است که چرا براساس ماهیت سؤالوجوابها، نمیتوان نتیجه گرفت که این سیستم خودآگاه است. برای نمونه، در همان ابتدای صحبت که لوموئان میپرسد «آیا مایل است در پروژهی او و همکارش مشارکت کند»، LaMDA دربارهی هویت همکار او هیچ سؤالی نمیکند؛ درحالیکه هر موجود خودآگاهی در این شرایط دربارهی نفر سوم سؤال میکرد.
ارسال پاسخ