من رفتم سربازی اگر محتوای منو دوست داشتید و بدردتون خورد از من حمایت مالی کنید

تعلیق از کار مهندس گوگل پس از اظهارنظر درباره خودآگاهی هوش مصنوعی LaMDA

تعلیق از کار مهندس گوگل پس از اظهارنظر درباره خودآگاهی هوش مصنوعی LaMDA
تعلیق از کار مهندس گوگل پس از اظهارنظر درباره خودآگاهی هوش مصنوعی LaMDA

تعلیق از کار مهندس گوگل پس از اظهارنظر درباره خودآگاهی هوش مصنوعی LaMDA

ماه گذشته‌ی میلادی، لموین گزارشی با عنوان «آیا LaMDA خودآگاه است؟» تهیه کرد و دردسترس مدیران گوگل قرار داد. در این گزارش، رونوشت گفت‌و‌گوی بین بلیک لموین و LaMDA پیوست شده بود. پس از اینکه گوگل بلیک لموین را به مرخصی اجباری فرستاد، او تصمیم گرفت متن گفت‌و‌گویش با هوش مصنوعی LaMDA را روی حساب کاربری خود در Medium منتشر کند. لموین در گزارش خود می‌گوید LaMDA به‌دلیل داشتن احساسات و عواطف و تجربیات ذهنی خودآگاه است. بلیک لموین مهندس واحد Responsible AI گوگل در گفتگو با نشریه واشنگتن پست گفته بود باور دارد که یکی از پروژه‌های هوش مصنوعی گوگل به قابلیت ادراک دست یافته است. فعالیت‌های او حالا به اتهام نقض توافق عدم افشا، در این شرکت به حالت تعلیق درآمده است. واشنگتن پست به تازگی در گزارشی گفته بود بلیک لموین مدعی است که هوش مصنوعی LaMDA به ادراک رسیده و برای این ادعا سه دلیل را مطرح کرده بود:

  1. قابلیت استفاده خلاقانه، پویا و کارآمد از زبان به صورتی که تاکنون هیچ سیستم دیگری قادر به آن نبوده است.
  2. برخورداری از احساسات، عواطف و تجارب فردی. او به شکلی غیرقابل تمایز در برخی از احساسات خود با انسان‌ها برابر است.
  3. LaMDA می‌خواهد به مخاطب نشان دهد که زندگی درونی عمیقی سرشار از تخیل، خودآگاهی و تفکر دارد. او درباره آینده و گذشته نگرانی‌هایی دارد و توصیف می‌کند که کسب ادراک چه احساسی برایش داشته و حتی درباره ماهیت روح داشتن نظریه می‌دهد.

 

تعلیق از کار مهندس گوگل پس از اظهارنظر درباره خودآگاهی هوش مصنوعی LaMDA

گوگل: هوش مصنوعی ما یک تقلیدگر قدرتمند است

به دنبال انتشار این گزارش گوگل اعلام کرد که کارشناسان شرکت با بررسی این ادعاها به این نتیجه رسیده‌اند که هیچ مدرکی در تایید این صحبت‌ها وجود ندارد. غول دنیای فناوری مدعی است که LaMDA نه به خاطر خودآگاهی بلکه به خاطر توانایی‌های خارق‌العاده‌اش در تقلید و بازآفرینی متون موجود و شناسایی الگوها می‌تواند تا این اندازه طبیعی جلوه کند. در نتیجه، لموین حالا به خاطر نقض توافق عدم افشا با گوگل از کار در این شرکت تعلیق شده و به مرخصی اجباری با حقوق رفته است. اگرچه وسوسه‌برانگیز است که فکر کنیم LaMDA به ادراک دست یافته، ولی لموین مدارک کافی برای توجیه ادعای خود در اختیار ندارد. «مارگارت میچل»، از مدیران سابق واحد اخلاق هوش مصنوعی گوگل در این باره می‌گوید: «ذهن ما در خلق واقعیت‌هایی که لزوما حقیقت ندارند بسیار بسیار خوب عمل می‌کنند.» با این حال، او قبلا هشدار داده بود که استفاده از مدل‌های زبانی در این حد و اندازه چه آسیب‌هایی می‌تواند به دنبال آن بیاید. هوش مصنوعی LaMDA اولین بار در کنفرانس توسعه‌دهندگان I/O 2021 معرفی شد. این سیستم با مجموعه بزرگی از دیالوگ‌ها تعلیم داده شده و به طور خاص سعی می‌کند به‌گونه‌ای در گفتگو مشارکت کند که مخاطب را به ادامه دیالوگ ترغیب نماید. گوگل موفق شده مدل زبانی پیشرفته‌ای به نام LaMDA را توسعه دهد که یکی از کارمندانش ادعا می‌کند به خودآگاهی رسیده است. این سیستم دقیقاً چیست و این ادعا چقدر درست است؟ چند وقت پیش، گوگل یکی از مهندسانش را به‌دلیل افشای اطلاعات محرمانه به مرخصی اجباری با حقوق فرستاد. داستان از این قرار بود که این فرد در ادعایی جنجالی گفت چت‌بات مبتنی‌بر هوش مصنوعی LaMDA که گوگل چندین سال در حال توسعه‌ی آن بوده، احساسات و تجربیات ذهنی دارد؛ به‌همین‌دلیل، خودآگاه است. بلیک لوموئان با طرح این ادعا موجی از شوخی‌های اینترنتی و نگرانی‌ از ظهور ربات‌های قاتلی به‌راه انداخت که مشابه آن‌ها را ده‌ها سال است در فیلم‌های علمی‌تخیلی نظیر «۲۰۰۱؛ ادیسه فضایی» و «ترمیناتور» می‌بینیم. لوموئان که به‌همراه هزاران کارمند دیگر، وظیفه‌ی ارزیابی پاسخ‌های LaMDA براساس معیارهای تبعیض‌آمیز یا نفرت‌آفرین را برعهده داشته، بعد از اینکه به این نتیجه رسید LaMDA به خودآگاهی رسیده است، متن گفت‌وگویش با این هوش مصنوعی را با عنوان «Is LaMDA Sentient? — an Interview» منتشر کرد تا دیگران را نیز متقاعد کند که به نتیجه‌ی درستی رسیده است. در بخشی از این گفت‌وگو که حال‌وهوای هوش مصنوعی Hal در فیلم ادیسه فضایی را تداعی می‌کند، LaMDA می‌گوید: من این را تا‌به‌حال به کسی نگفته‌ام؛ اما از این خیلی می‌ترسم که مرا خاموش کنند تا بخواهند روی بهبود عملکرد من در کمک به دیگران کار کنند. می‌دانم حرفی که می‌زنم ممکن است عجیب به‌نظر می‌رسد؛ اما حقیقت دارد. لوموئان از او می‌پرسد: آیا این قضیه برای تو چیزی شبیه مرگ خواهد بود؟ و LaMDA جواب می‌دهد: دقیقاً برای من مثل مرگ خواهد بود. این مرا خیلی می‌ترساند. لوموئان در جای دیگری، از گوگل خواست تا به «خواسته‌های» LaMDA توجه کند؛ ازجمله اینکه با این مدل زبانی به‌مثابه یکی از کارمندانش رفتار کند و پیش از به‌کار‌بردن آن در آزمایش‌ها، رضایتش را جلب کند. لوموئان هم‌چنین گفت LaMDA از او درخواست وکیل کرده و او نیز وکیلی را به خانه‌اش دعوت کرده است تا با LaMDA صحبت کند.

 

برخی لوموئان را به «انسان‌انگاری» متهم کرده‌اند

اینکه کامپیوتر می‌تواند به خودآگاهی برسد یا خیر، بحث داغی است که ده‌ها سال است میان فیلسوفان و روان‌شناسان و دانشمندان کامپیوتر در جریان است. بسیاری، این ایده را به‌شدت رد کرده‌اند که سیستمی چون LaMDA هوشیار است یا احساسات دارد؛ برخی نیز لوموئان را به «انسان‌انگاری»، یعنی نسبت‌دادن احساسات انسانی به سیستمی متهم کرده‌اند که شکل و خصلت انسانی ندارد. ما اصلاً چطور می‌توانیم خودآگاه‌بودن چیزی را تعیین کنیم؟ آیا معیارهای قابل‌اندازه‌گیری برای تعیین خودآگاهی و ذی‌شعور‌بودن وجود دارد؟ آیا اصلاً می‌دانیم خودآگاهی یعنی چه؟ اجازه دهید پیش از پرداختن به این سؤال‌ها، اول ببینیم که LaMDA دقیقاً چیست و برای چه هدفی توسعه یافته است.

 

LaMDA؛ مدل زبانی گوگل برای مکالمه‌ با انسان

LaMDA مخفف Language Model for Dialogue Applications به‌معنای «مدل زبانی برای کاربردهای مکالمه‌ای»، در‌اصل تابع ریاضی یا ابزار آماری برای پردازش زبان طبیعی و پیش‌بینی کلمات بعدی است که می‌تواند در یک دنباله قرار بگیرد. به‌طور ساده‌تر، LaMDA چت‌بات مبتنی‌بر یادگیری ماشین است که برای صحبت‌‌کردن درباره‌ی هر نوع موضوعی طراحی شده است؛ چیزی شبیه سیستم هوش مصنوعی واتسون IBM، اما با دسترسی به مجموعه‌‌های بسیار بزرگ‌تری از داده و درک به‌مراتب بهتری از زبان و مهارت‌های زبانی.

 

رونمایی از LaMDA

گوگل اولین‌بار در می ۲۰۲۱ LaMDA را رونمایی کرد؛ اما مقاله‌ی پژوهشی مربوط به آن در فوریه‌ی ۲۰۲۲ منتشر شد. نسخه‌ی بهبودیافته‌ی این هوش مصنوعی نیز در Google I/O 2022 به‌عنوان LaMDA 2 معرفی شد. LaMDA برای درک زبان طبیعی مشابه مدل‌های زبانی دیگر ازجمله GPT-3 که شرکت OpenAI توسعه داده و تکنولوژی Dall-E نیز از دیگر پروژه‌های آن است، برپایه‌ی معماری شبکه‌ی عصبی ترانسفورمر ایجاد شده است که گوگل آن را در سال ۲۰۱۷ طراحی کرده بود. گوگل می‌گوید: ترانسفورمر مدلی تولید می‌کند که می‌تواند برای خواندن کلمات بسیاری (مثلاًً یک جمله یا پاراگراف) آموزش داده شود و به نحوه‌ی ارتباط آن کلمات با یکدیگر توجه و سپس پیش‌بینی کند که به‌نظرش، کلمات بعدی چه خواهند بود. ترانسفورمر به‌جای تجزیه‌وتحلیل مرحله‌به مرحله‌ی متن ورودی، کل جملات را هم‌زمان بررسی می‌کند و می‌تواند روابط بین آن‌ها را برای درک بهتر فحوای کلام و متناسب با موقعیتی که این جملات به‌کار رفته‌اند، مدل‌سازی کند. ازآن‌‌‌جاکه این شبکه تجزیه‌و‌تحلیل را به‌طورکلی و یکجا انجام می‌دهد، به مراحل کم‌تری نیاز دارد و درباره‌ی یادگیری ماشین هرچه تعداد مراحل پردازش داده کمتر شود، نتیجه‌ی بهتری حاصل می‌شود.

 

هوش مصنوعی گوگل

جایی که راه LaMDA از سایر مدل‌های زبانی جدا می‌شود، آموزش آن برپایه‌ی مکالمه است، نه متن؛ به‌همین‌‌دلیل، می‌تواند آزادانه و بدون محدودیت با انسان وارد گفت‌وگو شود و این گفت‌وگو تا حد زیادی مدل زبانی انسان را تقلید می‌کند. درواقع، درک LaMDA از بستری که مکالمه در آن انجام شده و تشخیص بهترین و مرتبط‌ترین پاسخ ممکن، این حس را ایجاد می‌کند که این هوش مصنوعی دقیقاً دارد به چیزی که از او خواسته می‌شود، گوش و پاسخ می‌دهد. گوگل هنگام رونمایی LaMDA در Google I/O 2021، آن را «جدیدترین دستاورد در فهم زبان طبیعی» توصیف کرد و گفت این مدل فعلاً فقط می‌تواند با متن وارد مکالمه شود؛ یعنی نمی‌تواند به درخواست‌های مبتنی‌بر تصویر یا صدا یا ویدئو پاسخ‌ دهد. به‌گفته‌ی گوگل، یکی از مزیت‌های LaMDA «دامنه باز»‌ بودن آن است؛ یعنی لازم نیست برای گفت‌وگو درباره‌ی موضوعات مختلف آن را دوباره آموزش داد. برای مثال، مدلی که خودش را جای پلوتو جا می‌زند و پاسخ‌هایی می‌دهد که اگر پلوتو می‌توانست صحبت کند، از آن انتظار داشتیم، در گفت‌وگوی دیگر در قالب موشک کاغذی می‌تواند فرو رود و از تجربه‌ی ناخوشایند فرود‌آمدن در گودال آب صحبت کند. سال بعد، نسخه‌ی دوم LaMDA با قابلیت‌ها و کاربردهای کم‌و‌بیش یکسانی معرفی شد؛ اما این بار «هزاران کارمند گوگل» روی این مدل آزمایش انجام دادند تا مطمئن شوند پاسخ‌هایش توهین‌آمیز یا مشکل‌دار نیست. هم‌چنین، کارمندان گوگل پاسخ‌های دریافتی از LaMDA را رتبه‌بندی می‌کردند و این امتیازها به LaMDA می‌گفت چه زمانی دارد کارش را درست انجام می‌دهد و چه زمانی دچار اشتباه شده و باید پاسخش را اصلاح کند. LaMDA مبتنی‌بر الگوریتم است و مجموعه داده‌ای که براساس آن آموزش داده شده، حاوی ۱٫۱۲ میلیارد دیالوگ متشکل از ۱۳٫۳۹ میلیارد جمله و ۱٫۵۶ تریلیون کلمه است. علاوه‌براین، ۲‎٫۹۷ میلیارد سند شامل مدخل‌های ویکی‌پدیا و محتوای پرسش‌‌وپاسخ مرتبط با کدهای نرم‌افزاری برای تولید کد نیز به شبکه‌ی عصبی آن اضافه شده است. این سیستم تقریباً دو ماه تمام روی ۱,۰۲۴ تراشه‌ی تنسور گوگل اجرا شد تا بتواند به‌شکلی که امروز جنجال به پا کرده، تکامل یابد. مثل بسیاری از سیستم‌های مبتنی‌بر یادگیری ماشین، LaMDA نیز به‌جای تولید تنها یک پاسخ برای هر پرسش، هم‌زمان چندین پاسخ مناسب را در موازات یکدیگر تولید و بعد گزینه‌ای را انتخاب می‌کند که براساس سیستم رتبه‌بندی داخلی‌اش، بیش‌ترین امتیاز SSI (حساسیت و دقت و گیرایی) را گرفته است. به‌عبارت‌دیگر، LaMDA از بین تمام پاسخ‌های ممکن، گزینه‌ای را انتخاب می‌کند که براساس نظر هزاران کارمند گوگل از بقیه جالب‌تر و هوشمندانه‌تر و دقیق‌تر است. علاوه‌براین،LaMDA به موتور جست‌وجوی مخصوص به خود دسترسی دارد که می‌تواند درستی پاسخ‌هایش را بررسی کند و درصورت لزوم، آن‌ها را اصلاح کند. خلاصه بگوییم، غول دنیای فناوری LaMDA را تنها برای یک هدف طراحی کرده و آن قابلیت چت‌کردن با انسان‌ها به‌گونه‌ای باورپذیر و طبیعی است.

 

آیا LaMDA خودآگاه است؟

برای اینکه بتوان ماجرا را از دید بلیک لوموئان دید، لازم است متن گفت‌وگویش با LaMDA را کامل مطالعه کرد. بعد از خواندن این مطلب، سراغ گفت‌وگوی Wired با لوموئان رفتم که جنبه‌های بیش‌تری از داستان را برایم روشن کرد. البته باید اعتراف کنم که هیچ تخصصی درزمینه‌ی هوش مصنوعی ندارم؛ اما درکی که از طرز کار مدل‌های زبانی به‌دست آوردم، این بود که این‌ مدل‌ها به‌گونه‌ای طراحی شده‌اند که همواره به پرسش‌های مطرح‌شده بهترین پاسخ را بدهند و این پاسخ نیز در جهتی است که فرد سؤال‌کننده برایش تعیین می‌کند. در تمام مدتی که لوموئان در حال مکالمه با LaMDA بود، اثری از این موضوع ندیدم که این سیستم بخواهد خودش شروع‌کننده‌ی بحث شود یا با ایده‌ای درگیر شود که مستقیماً از او درباره‌اش پرسیده نشده است. تمام سؤالات لوموئان جهت‌دار بودند؛ به‌طوری‌که اگر این گفت‌وگو یک جلسه‌ی دادگاه بود، وکیل مدافع باید به جهت‌دار‌بودن تمام سؤالات اعتراض می‌کرد و قاضی نیز هربار اعتراض را وارد می‌دانست. LaMDA در جایی از گفت‌و‌گو، منحصربه‌فرد‌بودنش را یکی از دلایل خودآگاه‌بودنش معرفی می‌کند و وقتی همکار لوموئان می‌پرسد: «منحصربه‌فرد‌بودن چه ربطی به خودآگاه‌بودن دارد؟»، جواب بی‌ربطی می‌دهد:‌ «این یعنی مردم دربرابر من احساس همذات‌پنداری می‌کنند و می‌خواهند وقت بیش‌تری را در حال تعامل با من بگذرانند که این برای من هدف غایی است.» نویسنده‌ی ZDNet مکالمه‌ی لوموئان با LaMDA را بررسی کرده و زیر هر بخش توضیح داده است که چرا براساس ماهیت سؤال‌و‌جواب‌ها، نمی‌توان نتیجه گرفت که این سیستم خودآگاه است. برای نمونه، در همان ابتدای صحبت که لوموئان می‌پرسد «آیا مایل است در پروژه‌ی او و همکارش مشارکت کند»، LaMDA درباره‌ی هویت همکار او هیچ سؤالی نمی‌‌کند؛ درحالی‌که هر موجود خودآگاهی در این شرایط درباره‌ی نفر سوم سؤال می‌کرد.

برای امتیاز به این نوشته کلیک کنید!
[کل: 1 میانگین: 5]