این لی سادل هست. لی سادل یکی از بزرگترین بازیکن های Go (یک بازی فکری)در جهان هست. و در حال تجربه لحظهای هست که دوستان من در سیلیکون ولی بهش میگن لحظه "یا پیغمبر!"
(خنده حاضرین)
لحظهای که مفهمیم هوش مصنوعی واقعا داره سریعتر از چیزی که انتظارشو داشتیم پیشرفت میکنه. پس، انسانها روی تخته Go باختهاند. در دنیای واقعی چطور؟
باید بگم که دنیای واقعی خیلی بزرگتر و بسیار بسیار پیچیدهتر از تخته بازی Go هست. (دنیای واقعی) خیلی نامرئیتر هست، ولی همچنان مساله تصمیم گیری هست. و اگر درباره برخی از تکنولوژیها فکر کنیم که در حال ظهور هستند... [Noriko [Arai اشاره کرده است که توانایی خواندن هنوز در ماشینها وجود ندارد، حداقل همراه با فهمیدن نیست. ولی این اتفاق خواهد افتاد. و وقتی که به وقوع بپیوندد، پس از آن، خیلی زود ماشینها تمام آنچه را که بشر نوشته است، خواهند خواند. و این ماشینها را قادر میسازد که فراتر از انسانها به آینده نگاه کنند، همانطور که قبلاً در Go دیدهایم، اگر ماشینها به اطلاعات بیشتری دسترسی داشته باشند، میتوانند تصمیمات بهتری در جهان واقعی نسبت به ما بگیرند. آیا این یک اتفاق خوب است؟ خب، امیدوارم که باشه.
تمام تمدن ما، هر چیزی که برایش ارزش قائل هستیم، بر پایه هوشمندی ما است. و اگر ما هوش بیشتری در اختیار داشتیم، آن وقت هیچ حد و مرزی برای کارهایی که انسان میتواند بکند وجود نداشت. و من فکر میکنم که، همانطور که برخی توصیف کرداند، این میتواند بزرگترین رویداد تاریخ بشریت باشد. پس چرا بعضیها حرفهایی میزنند، مثلا اینکه هوش مصنوعی میتواند خاتمه دهنده نسل بشر باشد؟ آیا این یک پدیده جدید است؟ آیا فقط ایلان ماسک و بیل گیتس و استیون هاوکینگ هستند؟
راستش، نه. این ایده خیلی وقته که وجود دارد. یه نقل قول میگه: «حتی اگر میتونستیم ماشینها رو فرمانبردار نگه داریم مثلا با خاموش کردنشان در لحظات استراتژیک» — و من بعداً به ایده «خاموش کردن»برمیگردم— «ما به عنوان یک گونه، باید خیلی احساس پستی کنیم» کی این رو گفته؟ آلن تورینگ در سال ۱۹۵۱ آلن تورینگ، همانطور که میدانید پدر علم کامپیوتر هست. و از خیلی از جهات، پدر علم هوش مصنوعی هم هست. پس اگر درباره این مساله فکر کنیم، مساله ساختن چیزی هوشمندتر از گونه خودمان، شاید این رو «مساله گوریل» بنامیم. چون اجداد گوریلها این کار رو چند میلیون سال قبل انجام داده اند، و الان میتوانیم از گوریلها بپرسیم که: آیا این کار ایده خوبی بود؟
اینم از گوریلهایی که در جلسهای، درباره اینکه آیا ایده خوبی بود بحث میکنند و بعد از مدت کوتاهی، به این نتیجه میرسن که، نه یک ایده افتضاح بود گونه ما، در تنگنای بدی قرار دارد در واقع، شما میتوانید غم عالم رو در چشمانشان ببینید
(خنده حاضرین)
پس شاید این احساس ناراحتی از به وجود آوردن چیزی هوشمندتر از گونه خود ایده خوبی نباشد ما چه کاری از دستمان برمیآید؟ درواقع، هیچی به جز متوقف کردن هوش مصنوعی، و به دلیل تمام فوایدی که گفتم و به دلیل اینکه من یک محقق هوش مصنوعی هستم من این مورد رو قبول ندارم. من میخوام که بتوانم همچنان روی هوش مصنوعی کار کنم.
پس باید این مساله رو بیشتر واکاوی کنیم. مشکل واقعا چی هست؟ چرا هوش مصنوعی بهتر منجر به فاجعه میشود؟
اینم یک نقل قول دیگه: «بهتره که مطمئن باشیم هدفی که در ماشین قرار میدهیم همان هدفی است که واقعا میخواهیم.» که توسط نوربرت وینر در ۱۹۶۰ گفته شده، بلافاصله بعد از اینکه وی دید یکی از سیستمهای یادگیرنده اولیه بازی چکرز رو بهتر از سازندگانش بازی میکند. ولی این جمله میتوانست توسط شاه میداس هم گفته شده باشد. شاه میداس گفت: «من میخواهم هرچه را که لمس میکنم تبدیل به طلا شود،» و او دقیقاً چیزی را که خواسته بود گرفت. و آن هدفی بود که وی در ماشین قرار داد. اینطور که میگن، و بعدش غذا، نوشیدنی و اقوامش تبدیل به طلا شدند. و از بدبختی و گشنگی مرد. پس ما به این مشکل میگوییم: «مشکل شاه میداس» که در آن هدف را چیزی قرار میدهیم، که واقعاً هم جهت با چیزی که ما ميخواهیم نیست. به بیان جدیدتر، به این مشکل میگیم: «مشکل هم جهت سازی ارزش»
هدف گذاری اشتباه تنها بخش مشکل نیست. بخش دیگری هم هست اگر شما یک هدف برای ماشین قرار دهید حتی به سادگیج «آوردن قهوه» ماشین به خودش میگه «چطوری ممکنه که من نتونم قهوه رو بیارم؟ یکی ممکنه منو خاموش کنه.. خب پس من باید کاری کنم که جلوی این کار رو بگیرم. من دکمه «خاموش» خودمو غیرفعال میکنم. من هرکاری میکنم تا از خودم در برابر موانعی که سد راه هدفی که به من داده شده میشوند، دفاع کنم.» بنابراین، این دنبال کردن تک-ذهنه در یک حالت خیلی دفاعی از هدف، در واقع، هم جهت با اهداف گونه انسان نیست. این مشکلی هست که باهاش مواجه هستیم و در واقع، این نکته با ارزش این سخنرانی هست. اگر میخواهید فقط یک چیز را به خاطرتون بسپرید، اون اینه که اگر شما بمیرین، دیگه نمیتونین قهوه رو بیارین
(خنده حاضرین)
خیلی سادست. فقط اینو یادتون باشه. روزی سه بار با خودتون تکرار کنین.
(خنده حضار)
و در واقع، این نکته دقیقا پلات فیلم 2001 [A space Odyssey] است. HAL یک هدف داره، یک ماموریت که همجهت با اهداف انسانها نیست و این باعث بروز مشکلاتی میشه البته خوشبختانه، HAL خیلی باهوش نیست اون نسبتا باهوش هست، ولی در نهایت Dave گولش میزنه. و میتونه خاموشش کنه. ولی شاید ما خیلی خوش شانس نباشیم. پس باید چیکار کنیم؟
من سعی میکنم هوش مصنوعی رو باز تعریف کنم. تا از این تصور سنتی بیرون بیایم. که طبق اون، ماشینهایی هستند که به صورت هوشمند اهداف رو دنبال میکنن. ۳ تا اصل رو باید در نظر گرفت. اولین اصل، نوع دوستی هست. اگر شما دوست داشته باشین تنها هدف ربات این باشه که اهداف انسان رو واقعیت ببخشه. و ارزشهای انسانی رو. و منظورم از ارزشها، ارزشهای احساسی یا خیرخواهانه نیست. منظورم هر چیزی هست که انسان ترجیح میده زندگیش اون شکلی باشه. و این در واقع قانون آسیموف رو نقض میکنه. که ربات باید از حیات خودش محافظت کنه. ربات هیچ علاقهای به مراقبت از حیات خودش نداره.
قانون دوم، قانون فروتنی هست. البته اگه خوشتون بیاد. و این قانون نقش مهمی در امن کردن رباتها داره. طبق این قانون، ربات نمیدونه که ارزشهای انسانی چه چیزهایی هستند باید در راستای محقق شدنشون تلاش کنه، ولی نمیدونه چه چیزهایی هستند. و این از مشکل دنبال کردن تک-ذهنی هدف جلوگیری میکنه. این عدم قطعیت بسیار مهم هست.
حالا، برای اینکه ربات برای ما مفید باشه باید یک ایدهای ازچیزی که میخوایم داشته باشه. و این اطلاعات رو در درجه اول از مشاهده انتخابهای انسان به دست میآره. پس، انتخابهای خود ما هستند که اطلاعات رو آشکار میکنن درباره چیزی که ما ترجیح میدیم زندگیمون شبیه به اون باشه. پس این ۳ اصل بیان شد. حالا بیاین ببینیم که این اصول، چگونه روی این سوال عمل میکند: «آیا میتونی ماشین رو خاموش کنی؟» همانطور که تورینگ پیشنهاد داد.
این یک ربات مدل PR2 هستش. که ما یک نمونه از آن در آزمایشگاهمون داریم و یک دکمه بزرگ قرمز برای «خاموش» کردن در پشتش داره. سوال اینه که آیا این ربات بهتون اجازه میده که خاموشش کنین؟ اگر ما از راه سنتی عمل کنیم، بهش هدف این هدف رو میدیم: «قهوه روبیار، من باید قهوه رو بیارم من نمیتونم قهوه بیارم اگر مرده باشم» به وضوح، PR2 به سخنرانی من گوش کرده، پس میگه من باید دکمه «خاموش» رو غیرفعال کنم. و احتمالاً با دستگاه شوک، به تمام مردم داخل استارباکس شلیک کنم! کسانی که ممکنه سد راه من باشن.
(خنده حاضرین)
پس این مساله به نظر اجتناب ناپذیر میاد، درسته؟ این حالت شکست به نظر اجتناب ناپذیر هست، و از داشتن یک هدف دقیق و محکم نشأت میگیره.
حالا چه اتفاقی میافته اگه ماشین درباره هدف مطمئن نباشه؟ اینطوری، یک جور دیگه استدلال میکنه. میگه: «باشه، انسان ممکنه منو خاموش کنه ولی تنها در صورتی این کارو میکنه که من کار اشتباهی بکنم. من نمیدونم چه کاری اشتباهه ولی میدونم که نمیخوام انجامش بدم.» این اصل اول و دوم گفته شده بود. «پس باید بذارم که که انسان منو خاموش کنه.» و درواقع، شما میتونین انگیزه ای که ربات برای خاموش کردنش توسط انسان دارد رو محاسبه کنید، و این مستقیماً مرتبطه با درجه عدم قطعیت درباره اهداف اصولی دارد.
و وقتی که ماشین خاموش بشه اصل سوم وارد عمل میشه. ربات یه چیزی درباره اهداف یاد میگیره، باید پیگیر باشه، چون یاد میگیره کاری که کرده درست نبوده. در واقع، ما میتونیم با استفاده درست از نمادهای یونانی همانطور که معمولاً ریاضیدانان این کار رو میکنن میتونیم یک قضیه رو ثابت کنیم که میگه، این چنین رباتی قطعا برای انسان مفید است. قطعا وجود ماشینی که اینطوری طراحی شده باشه از نبودنش بهتره. این یک مثال ساده است، ولی قدم اول راه ماست. راه استفاده از هوش مصنوعی سازگار با انسان.
حالا، اصل سوم فکر کنم چیزی باشه که احتمالا درکش براتون سخت باشه. احتمالا شما فکر میکنین که «راستش، من بد رفتار میکنم و نمیخوام که ربات من مثل من رفتار کنه. من نصف شب دزدکی میرم سر یخچال. یا فلان کار رو میکنم.» خیلی از کارها هست که شما دوست ندارین رباتتون انجامشون بده ولی در واقع، اصل مطلب اینطوری نیست. به صرف اینکه شما بد رفتار میکنین، دلیل نمیشه ربات هم از رفتار شما تقلید کنه. ربات قراره که انگیزههای شما رو بفهمه، و شاید در راستای رسیدن بهش کمکتون کنه، البته اگر مناسب باشه. ولی همچنان کاری سختیه. در واقع، کاری که ما سعی میکنیم انجام بدیم اینه که به ماشینها اجازه بدیم برای هر فرد و هر زندگی ممکن پیشبینی کنند که آیا میتونن زنده بمونن و البته جان بقیه: این که کدوم رو ترجیح میدن؟ و سختیهای بسیار زیادی برای انجام این کار وجود دارن؛ و من انتظار ندارم که این مساله به زودی حل بشه. و چالش اصلی، در واقع خود ما هستیم.
همانطور که قبلا اشاره کردم، ما بد رفتار میکنیم. در واقعا بعضی از ما کاملا بدجنس هستیم. حالا همانطور که گفتم، ربات مجبور نیست که رفتار رو تقلید کنه. ربات از خودش هیچ هدفی ندارد. و کاملا نوع دوست هست. و برای این طراحی نشده که خواسته های یک انسان یا کاربر رو برآورده کنه، در حقیقت، ربات باید به ترجیحات همه احترام بگذارد. پس میتونه مقدار مشخصی از بدرفتاری رو تحمل کنه، و حتی میتونه سوءرفتار شما رو درک کنه، مثلا اینکه شما به عنوان مامور اداره گذرنامه رشوه میگیرد دلیلش اینه که شما نان آور خانواده اید و بچه هاتون رو به مدرسه بفرستین. ربات میتونه این موضوع رو بفهمه، و اینطوری نیست که دزدی کنه. در واقع کمکتون خواهد کرد که بچههاتون رو به مدرسه بفرستین.
ما همچنین از نظر محاسباتی هم محدود هستیم. Lee Sedol یک بازیکن با استعداد Go هست. ولی با این وجود بازنده است. پس اگر به حرکاتش دقت کنیم، یک حرکتی بود که به شکستش منجر شد. این به این معنی نیست که اون میخواست ببازه. پس برای فهمیدن رفتارش ما باید از یک مدل انسان شناختی استفاده کنیم که شامل محدودیتهای محاسباتی میشود. که یک مدل بسیار پیچیده است. ولی همچنان این چیزی هست که برای فهمیدن میتونیم روش کار کنیم.
به نظر من به عنوان یک محقق هوش مصنوعی، دشوارترین بخش ماجرا این حقیقته که تعداد زیادی از ما(انسانها) وجود دارد. بنابراین ماشینها باید به طریقی یک مصالحه و توازن بین ترجیحات افراد مختلف برقرار کنن. و راههای زیادی برای این کار وجود دارند. اقتصاددانها، جامعه شناس ها، فلاسفه اخلاق مدار متوجه شده اند که ما فعالانه در حال همکاری هستیم.
بیاین ببینیم وقتی که اشتباه برداشت کنید چه اتفاقی خواهد افتاد. شما میتونین یک گفتگو داشته باشین، مثلا با دستیار شخصی هوشمندتان، که احتمالا در آینده نزدیک در دسترس باشد. مثلا به یک نمونه قوی از Siri فکر کنید Siri بهتون میگه که: «همسرتون زنگ زد تا برای شام امشب بهتون یادآوری کنه» و البته شما هم فراموش کرده بودید چی؟ کدوم شام؟ راجع به چی حرف میزنی؟
امم...بیستمین سالگرد ازدواجتون ساعت ۷ شب
من نمیتونم برم. ساعت ۷:۳۰ با دبیرکل سازمان ملل جلسه دارم. چطوری اینطوری شد؟»
«من بهت هشدار داده بودم، ولی تو پیشنهاد من رو نشنیده گرفتی.»
«خب حالا چیکار کنم؟ نمیتونم بهش بگم که من خیلی سرم شلوغه.
نگران نباش. من پروازش رو طوری گذاشتم که تاخیر داشته باشه.»
(خنده حاضرین)
«یک نوع خطای کارکرد کامپیوتری.»
(خنده حاضرین)
«جدی؟ تو میتونی این کارو بکنی؟»
«ایشان ازتون عمیقاً عذرخواهی خواهد کرد. و از شما خواهد خواست که فردا ناهار همدیگررو ببینین.»
(خنده حاضرین)
ولی اینجا یک مشکلی هست. ربات به وضوح داره به ارزشهای همسر من توجه میکنه: که همون "همسر شاد، زندگی شاد" است.
(خنده حاضرین)
میتونست جور دیگه ای باشه. ممکن بود شما بعد از یک روز سخت کاری بیاین خونه، و کامپیوتر بگه: «روز سخت و طولانی بود؟»
«آره، حتی برای ناهار خوردن هم وقت نداشتم.»
«باید خیلی گرسنت باشه.»
«آره دارم از گشنگی میمیرم. میتونی برام شام درست کنی؟»
«یه چیزی هست که باید بهت بگم.»
(خنده حاضرین)
«یه سری آدم در سودان جنوبی هستن که بیشتر از تو در شرایط اضطراری قرار دارن»
(خنده حاضرین)
«پس من میرم. خودت شامت رو درست کن.»
(خنده حاضرین)
بنابراین باید این مشکلات رو حل کنیم و من با رغبت دارم روی این مشکلات کار میکنم.
دلایلی برای خوشبین بودن وجود دارن. یک دلیل، اینه که حجم زیادی از داده داریم. چون اگر یادتون باشه، من گفتم که رباتها هر چیزی که انسان تا کنون نوشته را خواهند خواند. بیشتر چیزهایی که ما مینویسیم درباره کارهای بشر هستش. و بقیه مردم به خاطرش ناراحت میشن. پس انبوهی از داده برای یادگیری وجود داره.
یک انگیزه اقتصادی قوی هم برای انجام این کار هست. ربات خدمتکارتون در منزل رو تصور کنید. شما باز هم دیر از سر کار بر میگردین، و ربات باید به بچهها غذا بده. بچهها گشنه هستند و هیچ غذایی در یخچال نیست. و ربات گربه رو میبینه!
(خنده حاضرین)
و ربات تابع ارزش گذاری انسان ها رو به خوبی یاد نگرفته بنابراین نمیفهمه که ارزش معنوی گربه از ارزش غذایی آن بیشتر است.
(خنده حضار)
بعدش چی میشه؟ یه چیزی تو این مایهها: "ربات ظالم، برای شام خانواده گربه میپزد" این حادثه احتمالا پایان صنعت رباتهای خانگی باشد. پس انگیزه زیادی برای درست شدن این موضوع وجود دارد. خیلی زودتر از اینکه به ماشینهای فوق هوشمند برسیم.
پس برای جمع بندی: من در اصل دارم سعی میکنم که تعریف هوش مصنوعی رو طوری عوض کنم که ماشین های سودمندی داشته باشیم. و این اصول عبارتند از: ماشینها نوع دوست هستند. و فقط میخوان به اهدافی که ما داریم برسن. ولی درباره چیستی این اهداف مطمئن نیستند. و به ما نگاه میکنند تا یادبگیرند این اهدافی که ما میخواهیم چه هستند. و امیدوارم در این فرآیند، ما هم یادبگیریم که مردم بهتری باشیم. خیلی ممنون.
(تشویق حاضرین)
کریس اندسون: خیلی جالب بود استوارت. ما یکم باید اینجا وایستیم چون عوامل دارن صحنه رو برای سخنرانی بعدی آماده میکنن.
چندتا سوال: ایده برنامهریزی در بی خبری به نظر خیلی قدرتمند میاد. وقتی که که به هوش قوی برسیم. چه چیزی مانع رباتی میشه که متنی رو میخونه و به این ایده میرسه که اون دانش بهتر از ندانستن است و اهدافش رو تغییر بده و دوباره برنامه ریزی کنه؟
استوارت راسل: آره همانطور که گفتم، ما میخوایم که ربات درباره اهداف ما بیشتر یاد بگیره. ربات فقط وقتی مطمئن تر میشه که موضوع درستتر باشه. شواهد گویا هستند. و ربات طوری طراحی میشه که درست تفسیر کنه. مثلا میفهمه که کتابها خیلی در شواهدی که دارند جانبدارانه عمل میکنند. فقط درباره پادشاهان و شاهزادگان حرف میزنن. و مردان سفید پوست فوق العاده ای که مشغول کاری هستند. بنابراین این یک مشکل پیچیده است. ولی همانطور که ربات داره درباره اهداف ما یاد میگیره. برای ما بیشتر و بیشتر کاربردی میشه.
ک آ: پس نمیشه اینو تبدیل به یک قانون کنیم و به صورت کورکورانه بگیم که: «اگر هر انسانی سعی کرد منو خاموش کنه من پیروی میکنم. من پیروی میکنم.»
قطعا اینطور نیست. اینطوری خیلی بد میشد. مثلا تصور کنید که یک ماشین خودران دارید. و میخواهید بچه پنج سالتون رو به مدرسه بفرستید. آیا شما میخواین که بچه پنج سالتون بتونه ماشین رو موقع رانندگی خاموش کنه؟ احتمالا نه. پس ربات باید بتونه درک کنه که آدم چقدر منطقی و معقول هست. هرچه انسان منطقی تر باشد، ربات بیشتر تمایل دارد که بگذارد خاموش شود. اگر شخص کاملا تصادفی یا خرابکار باشد ربات کمتر تمایل دارد که بگذارد خاموش شود.
خب استوارت، فقط میتونم بگم که من واقعا، واقعا امیدوارم تو برای ما این مشکل رو حل کنی. ممنون بابت سخنرانی. فوق العاده بود.
ممنون.
(تشویق حضار)