مکس تگمارک
1,463,845 views • 17:15

پس از ۱۳٫۸ میلیارد سال از تاریخ کیهانی، جهان ما از خواب بیدار شده و درباره خود آگاه شده است. از یک سیاره آبی کوچک، بخش‌های هوشیار کوچکی از جهان ما نگاه کردن به کیهان و کشف برخی حقایق حیرت‌انگیز را با تلسکوپ‌ها آغاز کرده‌اند. ما فهمیده‌ایم که جهان ما از آن چیزی که گذشتگانمان تصور می‌کردند وسیع‌تر است و حیات تقریباً شاخه بسیار مبهم و کوچکی از جهان‌های مرده دیگر بنظر می‌آید. ما همچنین حقایق الهام‌بخشی کشف کرده‌ایم: تکنولوژی که ما در حال توسعه آن هستیم چنان قابلیتی در شکوفا کردن حیات دارد که نه‌تنها در قرن‌ها که در میلیاردها سال و نه‌تنها در زمین که در کل جهان هستی بی‌نظیر است.

معتقدم حیات اولیه نسخه "حیات ۱.۰" می‌گرفت چرا که ساده‌ترین نوع حیات بود، همچون باکتری که ناتوانی در یاد گرفتن هر چیزی در طول زندگی‌اش داشت. معتقدم ما نسخه "حیات ۲.۰" را می‌گیریم چرا که می‌توانیم یاد بگیریم که در زبان عامیانه عشقِ کامپیوترها همچون توانایی نصب کردن نرم‌افزار به مغزمان است، مثل زبان‌های جدید و توانایی‌های کاری. نسخه "۳.۰" حیات، که علاوه بر نرم‌افزار، می‌تواند سخت‌افزار خودش را هم طراحی کند البته هنوز به وجود نیامده است. اما شاید بتوان گفت تکنولوژی فعلی ما نسخه "حیات ۲.۱" است با توانایی ما در ساخت مفصل مصنوعی، دستگاه تنظیم ضربان قلب و کاشت حلزونی.

خب، پس بگذارید نگاهی از نزدیک به رابطه‌مان با تکنولوژی بیندازیم: این مثالی از ماموریت آپولو ۱۱ برای فرود در ماه است که موفقیت‌آمیز و الهام‌بخش بود، نشان می‌دهد زمانی که انسان‌ها از تکنولوژی عاقلانه استفاده می‌کنند می‌توانیم به موفقیت‌هایی برسیم که گذشتگان‌مان در خواب هم نمی‌دیدند. اما هنوز اکتشافات هرچه بیشتر الهام‌بخشی وجود دارند که توسط چیزی قوی‌تر از موتور موشک به جلو رانده می‌شوند، که مسافران آن‌ها محدود به سه فضانورد نمی‌شود بلکه کل بشریت را شامل می‌شود. بگذارید در مورد سفر همگانی‌مان به آینده توسط هوش‌مصنوعی صحبت کنیم.

یکی از دوستانم یان تالین اشاره می‌کند که درست مانند فناوری موشکی، کافی نیست که فقط فناوری‌مان را قوی کنیم. بلکه اگر بخواهیم واقعا جاه‌طلب باشیم، باید مشخص کنیم که چطور می‌خواهیم آن را هدایت کنیم و کجا می‌خواهیم با آن برویم. پس بیاید در مورد سه مبحث مربوط به هوش‌مصنوعی صحبت کنیم: قدرت، هدایت، و مقصد.

با بحث قدرت شروع می‌کنیم. من هوشمندی را با تمام جزئیات تعریف می‌کنم — یعنی بطور ساده توانایی ما در رسیدن به اهداف پیچیده، چون با این تعریف می‌خواهم هر دو شاخه هوش یعنی مصنوعی و زیستی را شامل کنم. با این‌ کار از ایده احمقانه و از روی تعصبِ کربن‌محور اجتناب می‌کنم که فقط در صورتی می‌توانید باهوش باشید که از گوشت ساخته شده باشید. رشد اخیر قدرت هوش‌مصنوعی واقعاً شگفت‌انگیز است. در موردش فکر کنید. تا همین چند وقت پیش ربات‌ها نمی‌توانستند راه بروند. اما حالا پشتک می‌زنند. همین چند وقت پیش، ما خودروهای خودران نداشتیم. اکنون موشک‌های، خود پرواز داریم. همین چند وقت پیش، هوش‌مصنوعی توانایی تشخیص چهره را نداشت. اکنون، هوش‌مصنوعی می‌تواند چهره‌های تقلبی بسازد و حرکات چهره شما را در حالی که چیزی می‌گویید که هرگز نگفته‌اید شبیه‌سازی کند. همین چند وقت پیش، هوش‌مصنوعی نمی‌توانست در بازی Go ما را شکست دهد. اما بعداً، هوش‌مصنوعی ذهن عمیق آلفا زیرو گوگل ۳,۰۰۰ سال تاریخچه بازی Go و خرد آن را کنار زد و به بهترین بازیکن Go فقط با تمرین با خودش تبدیل شد. و چشم‌گیرترین دستاورد در این اتفاق شکست دادن بازیکنان انسانی نبود، بلکه شکست دادن خود محققان هوش‌مصنوعی توسط هوش‌مصنوعی بود که سال‌ها مشغول سخت‌ترکردن بازی‌های نرم افزاری بودند. آلفا زیرو نه‌تنها در Go که در شطرنج هم محققان هوش‌مصنوعی را شکست داد، دستاوردی که از سال ۱۹۵۰، بر رویش در حال کار ‌بودیم.

پس تمامی این پیشرفت‌های اخیر هوش‌مصنوعی شدیدا سوالی را بر می‌انگیزد: تا کجا ادامه خواهد داشت؟ من دوست دارم به این سوال به صورت منظره‌ای انتزاعی از وظایف فکر کنم که ارتفاع هر کار نشان دهنده سختی آن کار برای هوش‌مصنوعی در سطح انسانی است، و سطح آب دریا نشان دهنده توانایی امروز هوش‌مصنوعی است. هرچه هوش‌مصنوعی پیشرفت کند، ارتفاع دریا افزایش پیدا می‌کند پس به نوعی با پدیده گرمایش جهانی در این منظره از وظایف مواجهیم. و آشکارترین پند این است که از انجام کارهای در نزدیکی آب خودداری کنید —

(خنده حضار)

که بزودی خودکار یا دچار مشکل خواهند بود. اما سوالی بسیار بزرگ‌تری هم هست. تا چه میزانی آب بالا خواهد آمد؟ آیا تا محدوده‌ای که همه چیز را غرق کند پیش خواهد رفت تا تمام وظایف انسان‌ها را در بر بگیرد؟ و این تعریفی برای هوش‌مصنوعی‌ همه‌جانبه، AGI است. که هدف نهایی محققان هوش‌مصنوعی از زمان تعریف شدنش است. با این تعریف، مردم می‌گویند: "همیشه برای انسان‌ها شغل‌هایی باقیست که از ماشین‌ها بهتر انجام دهند." و معتقدند هرگز به هوش‌مصنوعی همه‌جانبه نخواهیم رسید. یقیناً، ما شاید بتوانیم شغل‌هایی خاص برای انسان‌ها انتخاب کنیم یا برای انسان‌ها درآمد و هدفی با شغل‌هایمان متصور شویم، اما هوش‌مصنوعی‌همه‌جانبه، زندگی که با آن آشناییم را به کل تغییر خواهد داد بطوریکه انسان‌ها دیگر هوشمندترین نخواهند بود. خب، اگر سطح آب به سطح هوش‌مصنوعی‌همه‌جانبه برسد، دیگر پیشرفت‌های بعدی هوش‌مصنوعی توسط انسان نیستند بلکه خود هوش‌مصنوعی خودش را ارتقا خواهد داد، که به معنی احتمال سرعت یافتن پیشرفت‌های بعدی هوش‌مصنوعی در مقابل زمانی که تحقیقات و توسعه انسانی طول می‌کشد خواهد بود، این باعث افزایش احتمال وقوع پدیده جنجالی تکینگی هوشمندی می‌شود زمانی که هوش‌مصنوعی خود ارتقاء مرتباً انسان‌ها را در هوشمندی پشت سر می‌گذارد. و ابر هوش‌مصنوعی در این زمان متولد می‌گردد.

بگذارید به حال برگردیم: آیا به این زودی به هوش‌مصنوعی‌همه‌جانبه خواهیم رسید؟ برخی از محققان مشهور هوش‌مصنوعی همچون رودنی بروکس معتقدند این اتفاق تا صدها سال طول خواهد کشید. اما بقیه همچون موسس هوش‌مصنوعی دیپ مایند گوگل، دمیس هاسابیس، خوش‌بین‌تر هستند و سخت تلاش می‌کنند هرچه زودتر اتفاق بیفتد. نظرسنجی‌های اخیر نشان داده اکثر محققان هوش‌مصنوعی به خوش‌بینی دمیس معتقدند و انتظار ظهور هوش‌مصنوعی‌همه‌جانبه را در چند دهه آینده دارند، یعنی در طول عمر اکثر ما. که این سوال بعدی را به وجود می‌آورد — بعد از آن چه می‌شود؟ نقش انسان‌ها بعد از اینکه ماشین‌ها تمام کارها را بهتر و ارزان‌تر انجام دادند، چه خواهد بود؟

از دید من، ما بر سر دوراهی خواهیم بود. انتخاب اول این است که از خود راضی باشیم: "بگذارید ماشین‌هایی بسازیم که همه‌کاره باشند و نگران پیش‌آمدهایش نباشیم. اگر ما تکنولوژی بسازیم که همه انسان‌ها را از رده خارج کند مثلا چه چیز بدی ممکن است اتفاق بیافتد که نگرانید؟"

(خنده حضار)

اما بنظر من این انتخاب بشدت نسنجیده خواهد بود. بنظرم ما باید بخاطر حضور در TED هم که شده بیشتر جاه طلبانه فکر کنیم. بگذارید آینده‌ای واقعاً الهام‌بخش را متصور شویم

و برای رسیدن به آن با تأمل حرکت کنیم. این مارا به بحث دوم در تشبیه موشک می‌کشاند: هدایت. ما در حال قوی‌تر کردن هوش‌مصنوعی هستیم اما چگونه آن را به سوی آینده هدایت کنیم که هوش‌مصنوعی بشریت را به جای تسلیم کردن کامل‌تر کند؟ برای کمک به این بحث، من موسسه تحقیقات حیات آینده را تاسیس نمودم. موسسه‌ای کوچک و غیر انتفاعی که فواید استفاده از تکنولوژی را تبلیغ می‌کند و هدف ما ساده است: در آینده حیات وجود داشته باشد و به بهترین شکل ممکن درآید. می‌دانید، من عاشق تکنولوژی هستم. تکنولوژی دلیل بهتر بودن امروز نسبت به عصر سنگی است. و من خوش‌بینم که ما می‌توانیم آینده‌ای با فناوری بالا و الهام‌بخش بسازیم، اگر — و این اگر دشواریست — اگر ما در نبرد دانش پیروز شویم — نبردی میان رشد قدرت تکنولوژی‌مان و رشد دانشی که خودمان داریم. اما این پیروزی نیازمند تغییر استراتژی است چون استراتژی قبلی ما بر پایه یادگیری از اشتباهات بوده است. ما آتش را اختراع کردیم، چندین بار باعث حادثه شد، و مواد آتش خاموش کن ساختیم.

(خنده حضار)

ماشین را اختراع کردیم، چند بار باعث تصادف شد سپس چراغ راهنما، کمربند ایمنی و کیسه هوا را اختراع کردیم، اما در برخورد با تکنولوژی‌های قدرتمندی چون سلاح هسته‌ای و هوش‌مصنوعی‌همه‌جانبه، یادگیری از اشتباهات، استراتژی شکست خورده محسوب می‌شود، بنظر شما اینطور نیست؟

(خنده حضار)

فعالانه عمل کردن بهتر از واکنش است؛ از پیش برنامه‌ریزی کنید و از همان اول همه چیز را درست کنید چون ممکن است تنها فرصت‌مان باشد. اما این جالب است چون گاهی مردم به من می‌گویند: "مکس، هیشش، اینطوری صحبت نکن،

چرا که سخنانت مانند تکنولوژی‌هراسان ترسناک است." اما این‌ها ترسناک نیستند بلکه ما در MIT آن‌ها را بخشی از دروس مهندسی ایمنی می‌دانیم. به آن فکر کنید: قبل از اینکه ناسا ماموریت آپولو ۱۱ را آغاز کند، آن‌ها به طور منظم احتمال هر ایرادی در حالتی که شما انسان‌هایی روی تانکرهای سوختی می‌گذارید و به‌جایی می‌فرستید که هیچ کمکی بعداً نمی‌شود فرستاد، بررسی کردند. احتمال فراوانی از ایرادها ممکن بود. آیا آن بررسی‌ها باعث ترس می‌شدند؟ نه. این دقیقاً همان مهندسی ایمنی بود که موفقیت ماموریت را تضمین کرد. معتقدم همان استراتژی دقیقاً باید در مورد هوش‌مصنوعی‌همه‌جانبه نیز به کار رود. در مورد پیش‌آمد‌های بد فکر کن تا مطمئن شوی بدون نقص خواهد شد.

خب در این زمینه، کنفرانس‌هایی تشکیل دادیم تا محققان پیشتاز هوش‌مصنوعی را کنار یکدیگر جمع کنیم تا در مورد چگونگی رشد دانش‌مان به منظور داشتن هوش‌مصنوعی سودمند گفتگو کنیم. آخرین کنفرانس ما، سال قبل در آسیلومر کالیفرنیا بود و این لیست ۲۳ بندی از اصولی که توسط ۱۰۰۰ نفر از محققان هوش‌مصنوعی و رهبران صنعتی امضا شده را تشکیل داد. می‌خواهم در مورد سه تا از این اصول برایتان بگویم:

اول، باید از هرگونه مسابقه نظامی و سلاح‌های خودکار مرگبار خودداری شود. نکته این است که هر علمی می‌تواند باعث ایجاد راه‌های جدید برای کمک یا صدمه‌زدن به مردم شود. به طور نمونه، زیست‌شناسی و شیمی بیشتر در مقاصد ساخت دارو و درمان‌های جدید در مقابل روش جدید برای کشتن مردم بکار می‌رود، چراکه زیست‌شناسان و شیمی‌دانان مستمرانه — و موفقیت آمیز — برای ممنوع کردن سلاح‌های زیستی و شیمیایی تلاش کردند. و در همین زمینه، اکثر محققان هوش‌مصنوعی می‌خواهند استفاده از سلاح‌های مرگبار خودکار را ممنوع و بد جلوه دهند. اصل بعدی تصویب شده در کنفرانس آسیلومار، ما باید شکاف درآمدی حاصل از هوش‌مصنوعی را کاهش دهیم. معتقدم، اگر بتوانیم کیک [سرانه درآمد جهان] را با هوش‌مصنوعی به شدت بزرگ کنیم اما نتوانیم راهی برای تقسیم آن پیدا کنیم

طوری که همه راضی باشند، پس شرم بر ما.

(تشویق حضار)

اگر کسی تا حالا کامپیوترش خراب شده، دستش را بالا بیاورد.

(خنده حضار)

واو، دست‌ها زیاد هستند. خب، پس باید به این اصل شما هم معتقد باشید که باید بودجه زیادی برای تحقیق روی تحقیقات ایمنی‌هوش‌مصنوعی بگذاریم. چون زمانی‌که ما هوش‌مصنوعی را تصمیم‌گیر و مسئول زیرساخت‌ها قرار می‌دهیم، باید راهی برای تبدیل کامپیوترهای ایراددار و قابل هک امروزی به هوش‌مصنوعی قدرت‌مندی که واقعاً بتوان به آن اعتماد کرد پیدا کنیم، در غیر اینصورت، تمامی این تکنولوژی وحشتناک می‌تواند دچار اختلال شده و به ما آسیب رساند، یا هک شده و علیه ما تنظیم شود. کار ما بر روی ایمنی کارکرد هوش‌مصنوعی باید شامل کار بر روی تنظیم ارزش‌هایش باشد، چرا که تهدید واقعی از جانب هوش‌مصنوعی‌همه‌جانبه از نوع شیطانی نیست همانند آنچه در فیلم‌های احمقانه هالیوودی هست، بلکه از نوع برتری است — یعنی هوش‌مصنوعی‌همه‌جانبه به اهدافی می‌رسد که با اهداف ما در تضاد است. برای نمونه، وقتی ما انسان‌ها کرگدن‌های سیاه غرب‌آفریقایی را به انقراض کشاندیم، به‌خاطر دسته‌ای از افکار شیطانی ضد کرگدنی این‌کار را نکردیم که، قبول دارید؟ ما این‌کار را بخاطر اینکه از آن‌ها باهوش‌تر بودیم و اهداف ما با آن‌ها در تضاد بود انجام دادیم. اما هوش‌مصنوعی‌همه‌جانبه روی کاغذ از ما هوشمندتر است پس برای اینکه اطمینان داشته باشیم خودمان را در مقامی چون کرگدن‌ها در مقابل هوش‌مصنوعی‌همه‌جانبه — اگر ساختیم — قرار ندهیم، ما باید بفهمیم که ماشین‌ها چگونه اهداف ما را می‌فهمند با آن‌ها سازگار شده و تغییرشان نمی‌دهند. اما پس اهداف چه‌کسی باید روی‌آن‌ها تنظیم گردد؟ چه اهدافی باید باشند؟

این ما را به بحث سوم‌ در تشبیه موشک می‌رساند: مقصد. ما در حال قوی‌تر کردن هوش‌مصنوعی هستیم، می‌خواهیم طریقه هدایتش را بدانیم، اما با آن به کجا می‌خواهیم برویم؟ این چالشی است که هیچ‌کس نمی‌خواهد در موردش صحبت کند — حتی در همین صحنه TED نیز — زیرا همه ما شدیداً به اهداف کوتاه‌مدت هوش‌مصنوعی چسبیده‌ایم. نژاد ما در حال ساختن هوش‌مصنوعی‌همه‌جانبه است، که با انگیزه‌ توجیه اقتصادی و کنجکاوی همراه است، اما پس اگر موفق شویم، چه تصوری از جامعه آینده باید داشته باشیم؟ ما اخیراً نظرسنجی بر روی این موضوع داشتیم. من به‌طور ناخوش‌آیندی متوجه شدم اکثر مردم واقعاً از ما می‌خواهد ابرهوش‌مصنوعی را بسازیم: هوش‌مصنوعی که بشدت در همه جهات از ما هوشمندتر است. و چیزی که عامه توافق بالایی روی‌آن دارند بلندپروازی ما برای کمک در انتشار حیات در عالم است، اما توافق کمی درباره اینکه چه کسی یا چه چیزی مسئول آن باشد وجود دارد. و من واقعا دلم می‌خواهد کسی را که می‌خواهد فقط ماشین‌ها در عالم به عنوان حیات پخش شوند ببینم.

(خنده حضار)

و عدم‌توافق کاملی در مورد نقش انسان‌ها داریم حتی در ابتدایی ترین نقش‌ها، پس بیایید به آینده‌های محتمل نگاهی بیندازیم که ممکن است انتخابمان به سوی‌شان باشد، موافقید؟

در این‌قسمت اشتباه در موردم فکر نکنید. در مورد سفرهای فضایی صحبت نمی‌کنم، بلکه صرفاً در مورد سفر استعاره‌ای بشریت به سمت آینده صحبت خواهم کرد. یکی از انتخاب‌هایی که بعضی از همکارانم دوستش دارند ساختن ابر هوش‌مصنوعی و در زیر کنترل بشریت نگه‌داشتن آن است، همچون خدایی در بند شده، جدا شده از اینترنت، که برای تولید تکنولوژی و ثروت غیر قابل تصور برای هرکسی‌که صاحبش باشد، مورد استفاده قرار می‌گیرد. اما لرد اکتون ما را آگاه ساخته که: "قدرت فساد می‌آورد و قدرت مطلق، فساد مطلق می‌آورد." خب شاید بنظر بیاید که ما انسان‌ها به‌اندازه کافی باهوش یا دانا نخواهیم بود تا این حجم از قدرت را در کنترل داشته باشیم همچنین، در کنار همه تردیدهای اخلاقی که شما ممکن است درباره به کنترل درآوردن هوش[مصنوعی] برتر داشته باشید، ممکن است نگران باشید که ابر هوش‌مصنوعی می‌تواند از ما در هوشمندی جلوتر زده، از دستمان در رود و بر ما چیره شود. اما من همچنین همکارانی دارم که راضی‌اند هوش‌مصنوعی بر ما چیره شود و حتی باعث انقراض نسل بشر گردد، مثل اینکه به هوش‌مصنوعی به دید میراث‌داران شایسته‌مان بنگریم، مثل فرزندان‌مان. اما از کجا بدانیم که هوش‌مصنوعی با بهترین ارزش‌های ما سازگار شده است و همانند زامبی‌های ناخودآگاه ما را در انسان‌گونه دانستن‌شان فریب نخواهد زد؟ آیا نباید به انسان‌هایی که انقراض نسل بشر را نمی‌خواهد در این زمینه، فرصت نظر دادن داد؟ حالا اگر شما هیچ‌کدام از این دو انتخاب برای آینده همراه با فناوری را نخواهید باید به یاد داشته باشید که آینده با فناوری کم از منظر کیهانی همانند خودکشی است، چرا که اگر ما از مرزهای تکنولوژی امروزی فراتر نرویم سوال این نخواهد بود که بشریت منقرض می‌شود یا نه، بلکه اساسا درباره این خواهد بود که عامل آن سیارک قاتل بعدی است یا ابر آتشفشان یا مشکلات دیگری که می‌توانستیم با تکنولوژی بهتر مانع‌شان شویم.

خب، چطور است کیک‌مان را داشته باشیم و آن را بخوریم ... با هوش‌مصنوعی‌همه‌جانبه‌ای در بند ما نیست بلکه با ما خوب رفتار می‌کند چون ارزش‌های آن با ارزش‌های ما هم‌راستاست؟ این نیم‌نگاهی است به آنچه که الیزر یودکاوسکی آن‌را "هوش‌مصنوعی‌دوستانه" می‌نامد. و اگر ما چنین هوش‌مصنوعی بسازیم می‌تواند بسیار الهام‌بخش باشد. این می‌تواند نه‌تنها ما را از تجربه‌های منفی همچون بیماری، فقر، جرایم و سایر رنج‌ها برهاند، همچنین می‌تواند به ما آزادی انتخاب از میان گوناگونی تجربه‌های فوق‌العاده مثبت و جدید را بدهد — اساساً ما را صاحبان سرنوشت‌مان کند.

خب پس در خلاصه، وضعیت ما با تکنولوژی پیچیده است اما شرایط کلی‌مان ساده است. اکثر محققان هوش‌مصنوعی انتظار ظهور هوش‌مصنوعی‌همه‌جانبه را در چند دهه بعدی دارند اگر ما بدون برنامه به آن مرحله برسیم، شاید این بزرگترین اشتباه در تاریخ بشریت باشد.

امتحانش مجانی است. این رویداد می‌تواند باعث دیکتاتوری وحشیانه جهانی همراه با نابرابری بی‌سابقه، تحت نظر قرار گرفتن و رنج بردن و حتی موجب انقراض بشریت شود. اما اگر ما با دقت هدایتش کنیم، می‌توانیم به آینده‌ای خارق‌العاده که همه در وضع بهتری از الان خواهند بود برسیم: فقیر، ثروتمند و ثروتمند، ثروتمندتر شده، همه سالم و آزاد برای زندگی به سمت اهدافشان هستند.

حالا، صبر کنید. آیا شما گروهی هستید که آینده سیاسی راست یا چپی می‌خواهید؟ آیا جامعه مذهبی بر پایه قوانین سرسخت اخلاقی می‌خواهید؟ یا جامعه‌ای همراه با خوشی و لذت همگانی، چیزی مثل مراسم سالانه "مرد سوزان" در نوادا که بصورت همیشگی دایر باشد؟ سواحل، جنگل و دریاچه زیبا می‌خواهید یا ترجیح می‌دهید یکی از آن اتم‌ها را توسط واقعیت مجازی کامپیوتری دستکاری کنید؟ با هوش‌مصنوعی‌مهربان، تمامی این جوامع امکان‌پذیر است و می‌توان به مردم آزادی داد تا در هر کدام که خواستند زندگی کنند چرا که دیگر ما توسط هوش‌خودمان محدود نیستیم و تنها محدود به قوانین فیزیک‌ هستیم. پس میزان منابع و فضا برای آن نجومی خواهد بود — به معنای واقعی کلمه.

پس این انتخاب ماست: می‌توانیم در مورد آینده‌مان از خود راضی باشیم، و همانند نوشته‌ای از ایمان کور به همه تکنولوژی‌های جدید به شکل تضمینی و سودمند نگاه کنیم، و به خودمان این تضمین را مدام همچون وردی تکرار کنیم در حالی که همچون کشتی سرگردان به‌سمت تباهی‌مان پیش می‌رویم. یا می‌توانیم بلندپرواز باشیم — در مورد نحوه هدایت تکنولوژی‌مان و جایی که با آن می‌خواهیم برویم تا عصر شگفتی‌ها را با آن بسازیم خوب فکر کنیم. ما همه اینجا هستیم، تا عصر شگفتی را جشن بگیریم، و من احساس می‌کنم ماهیت آن نباید این باشد که قدرت فناوری از ما بیشتر شود، بلکه ما باید با آن قدرتمند شویم.

متشکرم.

(تشویق)