استوارت راسل
1,512,625 views • 17:35

این لی سادل هست. لی سادل یکی از بزرگترین بازیکن های Go (یک بازی فکری)در جهان هست. و در حال تجربه لحظه‌ای هست که دوستان من در سیلیکون ولی بهش میگن لحظه "یا پیغمبر!"

(خنده حاضرین)

لحظه‌ای که م‌ف‌همیم هوش مصنوعی واقعا داره سریعتر از چیزی که انتظارشو داشتیم پیشرفت میکنه. پس، انسان‌ها روی تخته Go باخته‌‌اند. در دنیای واقعی چطور؟

باید بگم که دنیای واقعی خیلی بزرگتر و بسیار بسیار پیچیده‌تر از تخته بازی Go هست. (دنیای واقعی) خیلی نامرئی‌تر هست، ولی همچنان مساله تصمیم گیری هست. و اگر درباره برخی از تکنولوژی‌ها فکر کنیم که در حال ظهور هستند... [Noriko [Arai اشاره کرده است که توانایی خواندن هنوز در ماشین‌ها وجود ندارد، حداقل همراه با فهمیدن نیست. ولی این اتفاق خواهد افتاد. و وقتی که به وقوع بپیوندد، پس از آن، خیلی زود ماشین‌ها تمام آن‌چه را که بشر نوشته است، خواهند خواند. و این ماشین‌ها را قادر می‌سازد که فراتر از انسان‌ها به آینده نگاه کنند، همانطور که قبلاً در ‌Go دیده‌ایم، اگر ماشین‌ها به اطلاعات بیشتری دسترسی داشته باشند، می‌توانند تصمیمات بهتری در جهان واقعی نسبت به ما بگیرند. آیا این یک اتفاق خوب است؟ خب، امیدوارم که باشه.

تمام تمدن ما، هر چیزی که برایش ارزش قائل هستیم، بر پایه هوشمندی ما است. و اگر ما هوش بیشتری در اختیار داشتیم، آن‌ وقت هیچ حد و مرزی برای کارهایی که انسان می‌تواند بکند وجود نداشت. و من فکر می‌کنم که، همانطور که برخی توصیف کرد‌اند، این می‌تواند بزرگترین رویداد تاریخ بشریت باشد. پس چرا بعضی‌ها حرفهایی میزنند، مثلا اینکه هوش مصنوعی می‌تواند خاتمه دهنده نسل بشر باشد؟ آیا این یک پدیده جدید است؟ آیا فقط ایلان ماسک و بیل گیتس و استیون هاوکینگ هستند؟

راستش، نه. این ایده خیلی وقته که وجود دارد. یه نقل قول میگه: «حتی اگر میتونستیم ماشین‌ها رو فرمانبردار نگه داریم مثلا با خاموش کردنشان در لحظات استراتژیک» — و من بعداً به ایده «خاموش کردن»برمی‌گردم— «ما به عنوان یک گونه، باید خیلی احساس پستی کنیم» کی این رو گفته؟ آلن تورینگ در سال ۱۹۵۱ آلن تورینگ، همانطور که می‌دانید پدر علم کامپیوتر هست. و از خیلی از جهات، پدر علم هوش مصنوعی هم هست. پس اگر درباره این مساله فکر کنیم، مساله ساختن چیزی هوشمندتر از گونه خودمان، شاید این رو «مساله گوریل» بنامیم. چون اجداد گوریل‌ها این کار رو چند میلیون‌ سال قبل انجام داده اند، و الان می‌توانیم از گوریل‌ها بپرسیم که: آیا این کار ایده‌ خوبی بود؟

اینم از گوریل‌هایی که در جلسه‌ای، درباره اینکه آیا ایده خوبی بود بحث میکنند و بعد از مدت کوتاهی، به این نتیجه میرسن که، نه یک ایده افتضاح بود گونه ما،‌ در تنگنای بدی قرار دارد در واقع، شما می‌توانید غم عالم رو در چشمانشان ببینید

(خنده حاضرین)

پس شاید این احساس ناراحتی از به وجود آوردن چیزی هوشمندتر از گونه خود ایده خوبی نباشد ما چه کاری از دستمان برمی‌آید؟ درواقع، هیچی به جز متوقف کردن هوش مصنوعی، و به دلیل تمام فوایدی که گفتم و به دلیل اینکه من یک محقق هوش مصنوعی هستم من این مورد رو قبول ندارم. من میخوام که بتوانم همچنان روی هوش مصنوعی کار کنم.

پس باید این مساله رو بیشتر واکاوی کنیم. مشکل واقعا چی هست؟ چرا هوش مصنوعی بهتر منجر به فاجعه می‌شود؟

اینم یک نقل قول دیگه: «بهتره که مطمئن باشیم هدفی که در ماشین‌ قرار‌ میدهیم همان هدفی است که واقعا میخواهیم.» که توسط نوربرت وینر در ۱۹۶۰ گفته شده، بلافاصله بعد از اینکه وی دید یکی از سیستم‌های یادگیرنده اولیه بازی چکرز رو بهتر از سازندگانش بازی می‌کند. ولی این جمله می‌توانست توسط شاه میداس هم گفته شده باشد. شاه میداس گفت: «من میخواهم هرچه را که لمس میکنم تبدیل به طلا شود،» و او دقیقاً چیزی را که خواسته بود گرفت. و آن هدفی بود که وی در ماشین قرار داد. اینطور که میگن، و بعدش غذا، نوشیدنی و اقوامش تبدیل به طلا شدند. و از بدبختی و گشنگی مرد. پس ما به این مشکل میگوییم: «مشکل شاه میداس» که در آن هدف را چیزی قرار می‌دهیم، که واقعاً هم جهت با چیزی که ما مي‌خواهیم نیست. به بیان جدیدتر، به این مشکل میگیم: «مشکل هم جهت سازی ارزش»

هدف گذاری اشتباه تنها بخش مشکل نیست. بخش دیگری هم هست اگر شما یک هدف برای ماشین قرار دهید حتی به سادگیج «آوردن قهوه» ماشین به خودش میگه «چطوری ممکنه که من نتونم قهوه رو بیارم؟ یکی ممکنه منو خاموش کنه.. خب پس من باید کاری کنم که جلوی این کار رو بگیرم. من دکمه «خاموش» خودمو غیرفعال می‌کنم. من هرکاری میکنم تا از خودم در برابر موانعی که سد راه هدفی که به من داده شده می‌شوند، دفاع کنم.» بنابراین، این دنبال کردن تک-ذهنه در یک حالت خیلی دفاعی از هدف، در واقع، هم جهت با اهداف گونه انسان نیست. این مشکلی هست که باهاش مواجه هستیم و در واقع، این نکته با ارزش این سخنرانی هست. اگر میخواهید فقط یک چیز را به خاطرتون بسپرید، اون اینه که اگر شما بمیرین، دیگه نمی‌تونین قهوه رو بیارین

(خنده حاضرین)

خیلی سادست. فقط اینو یادتون باشه. روزی سه بار با خودتون تکرار کنین.

(خنده حضار)

و در واقع، این نکته دقیقا پلات فیلم 2001 [A space Odyssey] است. HAL یک هدف داره، یک ماموریت که هم‌جهت با اهداف انسان‌ها نیست و این باعث بروز مشکلاتی میشه البته خوشبختانه، HAL خیلی باهوش نیست اون نسبتا باهوش هست، ولی در نهایت Dave گولش میزنه. و میتونه خاموشش کنه. ولی شاید ما خیلی خوش‌ شانس نباشیم. پس باید چیکار کنیم؟

من سعی میکنم هوش مصنوعی رو باز تعریف کنم. تا از این تصور سنتی بیرون بیایم. که طبق اون، ماشین‌هایی هستند که به صورت هوشمند اهداف رو دنبال میکنن. ۳ تا اصل رو باید در نظر گرفت. اولین اصل، نوع دوستی هست. اگر شما دوست داشته باشین تنها هدف ربات این باشه که اهداف انسان رو واقعیت ببخشه. و ارزش‌های انسانی رو. و منظورم از ارزش‌ها، ارزش‌های احساسی یا خیرخواهانه نیست. منظورم هر چیزی هست که انسان ترجیح میده زندگیش اون شکلی باشه. و این در واقع قانون آسیموف رو نقض میکنه. که ربات باید از حیات خودش محافظت کنه. ربات هیچ علاقه‌ای به مراقبت از حیات خودش نداره.

قانون دوم، قانون فروتنی هست. البته اگه خوشتون بیاد. و این قانون نقش مهمی در امن کردن ربات‌ها داره. طبق این قانون، ربات نمیدونه که ارزش‌های انسانی چه چیز‌هایی هستند باید در راستای محقق شدنشون تلاش کنه، ولی نمیدونه چه چیزهایی هستند. و این از مشکل دنبال کردن تک-ذهنی هدف جلوگیری می‌کنه. این عدم قطعیت بسیار مهم هست.

حالا، برای اینکه ربات برای ما مفید باشه باید یک ایده‌ای ازچیزی که میخوایم داشته باشه. و این اطلاعات رو در درجه اول از مشاهده انتخاب‌های انسان به دست می‌آره. پس، انتخاب‌های خود ما هستند که اطلاعات رو آشکار میکنن درباره چیزی که ما ترجیح میدیم زندگیمون شبیه به اون باشه. پس این ۳ اصل بیان شد. حالا بیاین ببینیم که این اصول، چگونه روی این سوال عمل میکند: «آیا میتونی ماشین رو خاموش کنی؟» همانطور که تورینگ پیشنهاد داد.

این یک ربات مدل PR2 هستش. که ما یک نمونه از آن در آزمایشگاهمون داریم و یک دکمه بزرگ قرمز برای «خاموش» کردن در پشتش داره. سوال اینه که آیا این ربات بهتون اجازه میده که خاموشش کنین؟ اگر ما از راه سنتی عمل کنیم، بهش هدف این هدف رو میدیم: «قهوه روبیار، من باید قهوه رو بیارم من نمیتونم قهوه بیارم اگر مرده باشم» به وضوح، PR2 به سخنرانی من گوش کرده، پس میگه من باید دکمه «خاموش» رو غیرفعال کنم. و احتمالاً با دستگاه شوک، به تمام مردم داخل استارباکس شلیک کنم! کسانی که ممکنه سد راه من باشن.

(خنده حاضرین)

پس این مساله به نظر اجتناب ناپذیر میاد، درسته؟ این حالت شکست به نظر اجتناب ناپذیر هست، و از داشتن یک هدف دقیق و محکم نشأت میگیره.

حالا چه اتفاقی می‌افته اگه ماشین درباره هدف مطمئن نباشه؟ اینطوری، یک جور دیگه استدلال میکنه. میگه: «باشه، انسان ممکنه منو خاموش کنه ولی تنها در صورتی این کارو میکنه که من کار اشتباهی بکنم. من نمیدونم چه کاری اشتباهه ولی میدونم که نمیخوام انجامش بدم.» این اصل اول و دوم گفته شده بود. «پس باید بذارم که که انسان منو خاموش کنه.» و درواقع، شما میتونین انگیزه ای که ربات برای خاموش کردنش توسط انسان دارد رو محاسبه کنید، و این مستقیماً مرتبطه با درجه عدم قطعیت درباره اهداف اصولی دارد.

و وقتی که ماشین خاموش بشه اصل سوم وارد عمل میشه. ربات یه چیزی درباره اهداف یاد میگیره، باید پیگیر باشه، چون‌ یاد میگیره کاری که کرده درست نبوده. در واقع، ما میتونیم با استفاده درست از نماد‌های یونانی همانطور که معمولاً ریاضیدانان این کار رو میکنن میتونیم یک قضیه رو ثابت کنیم که میگه،‌ این چنین رباتی قطعا برای انسان مفید است. قطعا وجود ماشینی که اینطوری طراحی شده باشه از نبودنش بهتره. این یک مثال ساده است، ولی قدم اول راه ماست. راه استفاده از هوش مصنوعی سازگار با انسان.

حالا، اصل سوم فکر کنم چیزی باشه که احتمالا درکش براتون سخت باشه. احتمالا شما فکر میکنین که «راستش، من بد رفتار میکنم و نمیخوام که ربات من مثل من رفتار کنه. من نصف شب دزدکی میرم سر یخچال. یا فلان کار رو میکنم.» خیلی از کارها هست که شما دوست ندارین رباتتون انجامشون بده ولی در واقع، اصل مطلب اینطوری نیست. به صرف اینکه شما بد رفتار میکنین، دلیل نمیشه ربات هم از رفتار شما تقلید کنه. ربات قراره که انگیزه‌های شما رو بفهمه، و شاید در راستای رسیدن بهش کمکتون کنه، البته اگر مناسب باشه. ولی همچنان کاری سختیه. در واقع، کاری که ما سعی میکنیم انجام بدیم اینه که به ماشین‌ها اجازه بدیم برای هر فرد و هر زندگی ممکن پیش‌بینی کنند که آیا میتونن زنده بمونن و البته جان بقیه: این که کدوم رو ترجیح میدن؟ و سختی‌های بسیار زیادی برای انجام این کار وجود دارن؛ و من انتظار ندارم که این مساله به زودی‌‌ حل بشه. و چالش اصلی، در واقع خود ما هستیم.

همانطور که قبلا اشاره کردم، ما بد رفتار میکنیم. در واقعا بعضی از ما کاملا بدجنس هستیم. حالا همانطور که گفتم، ربات مجبور نیست که رفتار رو تقلید کنه. ربات از خودش هیچ هدفی ندارد. و کاملا نوع دوست هست. و برای این طراحی نشده که خواسته های یک انسان یا کاربر رو برآورده کنه، در حقیقت،‌ ربات باید به ترجیحات همه احترام بگذارد. پس میتونه مقدار مشخصی از بدرفتاری رو تحمل کنه، و حتی میتونه سوءرفتار شما رو درک کنه، مثلا اینکه شما به عنوان مامور اداره گذرنامه رشوه میگیرد دلیلش اینه که شما نان آور خانواده اید و بچه هاتون رو به مدرسه بفرستین. ربات میتونه این موضوع رو بفهمه، و اینطوری نیست که دزدی کنه. در واقع کمکتون خواهد کرد که بچه‌هاتون رو به مدرسه بفرستین.

ما همچنین از نظر محاسباتی هم محدود هستیم. Lee Sedol یک بازیکن با استعداد Go هست. ولی با این وجود بازنده است. پس اگر به حرکاتش دقت کنیم، یک حرکتی بود که به شکستش منجر شد. این به این معنی نیست که اون میخواست ببازه. پس برای فهمیدن رفتارش ما باید از یک مدل انسان شناختی استفاده کنیم که شامل محدودیت‌های محاسباتی می‌شود. که یک مدل بسیار پیچیده است. ولی همچنان این چیزی هست که برای فهمیدن میتونیم روش کار کنیم.

به نظر من به عنوان یک محقق هوش مصنوعی، دشوارترین بخش ماجرا این حقیقته که تعداد زیادی از ما(انسان‌ها) وجود دارد. بنابراین ماشین‌ها باید به طریقی یک مصالحه‌ و توازن بین ترجیحات افراد مختلف برقرار کنن. و راه‌های زیادی برای این کار وجود دارند. اقتصاددان‌ها، جامعه شناس ها، فلاسفه اخلاق مدار متوجه شده اند که ما فعالانه در حال همکاری هستیم.

بیاین ببینیم وقتی که اشتباه برداشت کنید چه اتفاقی خواهد افتاد. شما میتونین یک گفتگو داشته باشین، مثلا با دستیار شخصی هوشمندتان، که احتمالا در آینده نزدیک در دسترس باشد. مثلا به یک نمونه قوی از Siri فکر کنید Siri بهتون میگه که: «همسرتون زنگ زد تا برای شام امشب بهتون یادآوری کنه» و البته شما هم فراموش کرده بودید چی؟ کدوم شام؟ راجع به چی حرف میزنی؟

امم...بیستمین سالگرد ازدواجتون ساعت ۷ شب

من نمیتونم برم. ساعت ۷:۳۰ با دبیرکل سازمان ملل جلسه دارم. چطوری اینطوری شد؟»

«من بهت هشدار داده بودم، ولی تو پیشنهاد من رو نشنیده گرفتی.»

«خب حالا چیکار کنم؟ نمیتونم بهش بگم که من خیلی سرم شلوغه.

نگران نباش. من پروازش رو طوری گذاشتم که تاخیر داشته باشه.»

(خنده حاضرین)

«یک نوع خطای کارکرد کامپیوتری.»

(خنده حاضرین)

«جدی؟ تو میتونی این کارو بکنی؟»

«ایشان ازتون عمیقاً عذرخواهی خواهد کرد. و از شما خواهد خواست که فردا ناهار همدیگررو ببینین.»

(خنده حاضرین)

ولی اینجا یک مشکلی هست. ربات به وضوح داره به ارزش‌های همسر من توجه میکنه: که همون "همسر شاد، زندگی شاد" است.

(خنده حاضرین)

میتونست جور دیگه ای باشه. ممکن بود شما بعد از یک روز سخت کاری بیاین خونه، و کامپیوتر بگه: «روز سخت و طولانی بود؟»

«آره، حتی برای ناهار خوردن هم وقت نداشتم.»

«باید خیلی گرسنت باشه.»

«آره دارم از گشنگی میمیرم. میتونی برام شام درست کنی؟»

«یه چیزی هست که باید بهت بگم.»

(خنده حاضرین)

«یه سری آدم در سودان جنوبی هستن که بیشتر از تو در شرایط اضطراری قرار دارن»

(خنده حاضرین)

«پس من میرم. خودت شامت رو درست کن.»

(خنده حاضرین)

بنابراین باید این مشکلات رو حل کنیم و من با رغبت دارم روی این مشکلات کار میکنم.

دلایلی برای خوشبین بودن وجود دارن. یک دلیل، اینه که حجم زیادی از داده داریم. چون اگر یادتون باشه، من گفتم که ربات‌ها هر چیزی که انسان تا کنون نوشته را خواهند خواند. بیشتر چیزهایی که ما مینویسیم درباره کارهای بشر هستش. و بقیه مردم به خاطرش ناراحت میشن. پس انبوهی از داده برای یادگیری وجود داره.

یک انگیزه اقتصادی قوی هم برای انجام این کار هست. ربات خدمتکارتون در منزل رو تصور کنید. شما باز هم دیر از سر کار بر میگردین، و ربات باید به بچه‌ها غذا بده. بچه‌ها گشنه هستند و هیچ غذایی در یخچال نیست. و ربات گربه رو میبینه!

(خنده حاضرین)

و ربات تابع ارزش گذاری انسان ها رو به خوبی یاد نگرفته بنابراین نمیفهمه که ارزش معنوی گربه از ارزش غذایی آن بیشتر است.

(خنده حضار)

بعدش چی میشه؟ یه چیزی تو این مایه‌ها: "ربات ظالم، برای شام خانواده گربه می‌پزد" این حادثه احتمالا پایان صنعت ربات‌های خانگی باشد. پس انگیزه زیادی برای درست شدن این موضوع وجود دارد. خیلی زودتر از اینکه به ماشین‌های فوق هوشمند برسیم.

پس برای جمع بندی: من در اصل دارم سعی میکنم که تعریف هوش مصنوعی رو طوری عوض کنم که ماشین های سودمندی داشته باشیم. و این اصول عبارتند از: ماشین‌ها نوع دوست هستند. و فقط میخوان به اهدافی که ما داریم برسن. ولی درباره چیستی این اهداف مطمئن نیستند. و به ما نگاه میکنند تا یادبگیرند این اهدافی که ما میخواهیم چه هستند. و امیدوارم در این فرآیند، ما هم یادبگیریم که مردم بهتری باشیم. خیلی ممنون.

(تشویق حاضرین)

کریس اندسون: خیلی جالب بود استوارت. ما یکم باید اینجا وایستیم چون عوامل دارن صحنه رو برای سخنرانی بعدی آماده میکنن.

چندتا سوال: ایده برنامه‌ریزی در بی خبری به نظر خیلی قدرتمند میاد. وقتی که که به هوش قوی برسیم. چه چیزی مانع رباتی میشه که متنی رو میخونه و به این ایده میرسه که اون دانش بهتر از ندانستن است و اهدافش رو تغییر بده و دوباره برنامه ریزی کنه؟

استوارت راسل: آره همانطور که گفتم، ما میخوایم که ربات درباره اهداف ما بیشتر یاد بگیره. ربات فقط وقتی مطمئن تر میشه که موضوع درست‌تر باشه. شواهد گویا هستند. و ربات طوری طراحی میشه که درست تفسیر کنه. مثلا میفهمه که کتاب‌ها خیلی در شواهدی که دارند جانبدارانه عمل میکنند. فقط درباره پادشاهان و شاهزادگان حرف میزنن. و مردان سفید پوست فوق‌ العاده ای که مشغول کاری هستند. بنابراین این یک مشکل پیچیده است. ولی همانطور که ربات داره درباره اهداف ما یاد میگیره. برای ما بیشتر و بیشتر کاربردی میشه.

ک آ: پس نمیشه اینو تبدیل به یک قانون کنیم و به صورت کورکورانه بگیم که: «اگر هر انسانی سعی کرد منو خاموش کنه من پیروی میکنم. من پیروی میکنم.»

قطعا اینطور نیست. اینطوری خیلی بد میشد. مثلا تصور کنید که یک ماشین خودران دارید. و میخواهید بچه پنج سالتون رو به مدرسه بفرستید. آیا شما میخواین که بچه پنج سالتون بتونه ماشین رو موقع رانندگی خاموش کنه؟ احتمالا نه. پس ربات باید بتونه درک کنه که آدم چقدر منطقی و معقول هست. هرچه انسان منطقی تر باشد، ربات بیشتر تمایل دارد که بگذارد خاموش شود. اگر شخص کاملا تصادفی یا خرابکار باشد ربات کمتر تمایل دارد که بگذارد خاموش شود.

خب استوارت، فقط میتونم بگم که من واقعا، واقعا امیدوارم تو برای ما این مشکل رو حل کنی. ممنون بابت سخنرانی. فوق العاده بود.

ممنون.

(تشویق حضار)