نامه ای سرگشاده به همه کسانی که فریب خوردهاند و از هوش مصنوعی میترسند
تبلیغات در مورد هوش مصنوعی یا وحشت را باور نکنید
در اوایل این هفته، سازمانی به نام مؤسسه آینده زندگی نامهای سرگشاده با موضوع اقدامات ایمنی ساختمان در سیستم های هوش مصنوعی (AI) منتشر کرد. این نامه و سند تحقیقاتی همراه با آن، نگاهی کاملاً یکنواخت به این موضوع دارد که چگونه محققان هوش مصنوعی میتوانند پتانسیل این فناوری را به حداکثر برسانند. این نامه در بدترین حالتش است، یعنی اصلاً شوم نیست:
و در اینجا تیتر CNET را برای داستان آن در مورد نامه مشاهده میکنیم:
در همین حال، اخبار بیبیسی کمی بیشتر از اتاق وحشت خارج شد تا این دروغ را ارائه دهد:
من می خواهم فکر کنم که این پایین سنگ است. وقتی صحبت از رباتها و هوش مصنوعی به میان میآید، روزنامهنگاران احتمالاً نمیتوانند بیش از این بیخبر یا به طرز بیرحمانهای طعمه ترافیک باشند. و خوانندگان باید در برخی مواقع از کلیک کردن بر روی همان تیترهای تندخو خسته شوند، که به نقل از همان محققان غیر هوش مصنوعی – الون ماسک و استیون هاوکینگ، به طور خاص – اعلامیه های روز قیامت را اعلام می کنند. ترس افکنی همیشه در طول زمان مزیت خود را از دست می دهد و حتی سمی ترین پوشش رسانه ای نیمه عمر ذاتی دارد. اما هرگز متوقف نمی شود.
خطری که ماشینها در دهههای آینده برای ما ایجاد میکنند را فراموش کنید. سوال مهمتر، در سال 2015، این است که آیا کسی قرار است از بشریت در برابر روزنامهنگاران نادانش محافظت کند؟
***
این همان چیزی است که هنگام پوشش دادن هوش مصنوعی به نظر می رسد خود را احمق کنید.
با کمترین گزارش ممکن شروع کنید. در این مورد، این بدان معناست که نامه سرگشاده ای را بخوانید که به صورت آنلاین منتشر شده است، و زحمت مصاحبه با هیچ یک از افراد دخیل در ایجاد آن را نداشته باشید. برای استفاده از داستانهای CNET و BBC به عنوان مثال، هیچ کدام شامل نقل قولها یا توضیحهایی از محققانی نیست که به گردآوری نامه یا سند تحقیقاتی همراه آن کمک کردهاند.. این تابعی از سرعت است، اما همچنین یک تصمیم تاکتیکی است (چه آگاهانه یا نه). مانند هر داستانی که بر هشدارهای دیوانه وار در مورد هوش مصنوعی آخرالزمانی متمرکز است، هرچه بیشتر گزارش دهید، فرضیه موضوعی نامفهوم تر می شود. کارشناسان در این زمینه تمایل دارند به این نکته اشاره کنند که تئاتر در آتش نیست، که وقتی ماموریت اصلی شما این است که خوانندگان را به تکاپو برای خروج بفرستید اصلاً جالب نیست.
الصاق عنوانی که تصویری از اندرویدهای اسکلتی را تداعی میکند که جمجمههای انسان را زیر پا میکوبند، فناوری پیچیده و دگرگونکننده را به یک نمایش فرعی کارناوال تبدیل میکند.
سریعتر و دراماتیکتر اقدام، ارائه چیزی است که به نظر میرسد، اما در واقع فقط ایلان ماسک و استیون هاوکینگ درباره موضوعی صحبت میکنند که هیچ یک از تخصصهای آنها نیست. من به آنها اشاره می کنم، به ویژه، زیرا آنها به صدای جمعی وحشت هوش مصنوعی تبدیل شده اند. آنها معتقدند که ابرهوش ماشینی می تواند منجر به انقراض ما شود. و نظرات آنها در این زمینه زنگ حقیقت را دارد، زیرا آنها از ذهن های درخشان با کمبود مبارک فیلترهای رسانه ای می آیند. اگر زمان پول است، پس نقل قول های بازیافتی بی پایان از ماسک و هاوکینگ معدن طلایی برای خبرنگاران و سردبیران خشمگین است. به چه زمینه ای بیشتر از یک جفت نابغه نیاز دارید که علناً از سقوط نوع بشر ناراحت هستند؟
و این تمام چیزی است که برای گزارش در مورد موضوعی لازم است که ریسک آن احتمالاً نمی تواند بیشتر باشد. برش و چسباندن از اسناد آنلاین، و از مصاحبهها، توییتها و نظرات قبلی، عنوانی را بچسبانید که تصوراتی از اندرویدهای اسکلتی که جمجمههای انسان را زیر پا میکوبند را تداعی میکند، و منتظر بمانید تا نشانهها از بین بروند. این همان کاری است که این نوع روزنامه نگاری با سازندگان و مصرف کنندگانش می کند. این یک فناوری پیچیده و متحول کننده را به یک نمایش فرعی کارناوال تبدیل می کند. در واقع، این به بیشتر پوشش هوش مصنوعی اعتبار زیادی می دهد. کارنی ها برای دستمزد خود سخت کار می کنند. خبرنگاران فناوری فقط باید سریع کار کنند.
***
داستان پشت نامه سرگشاده از جهاتی جالب تر از خود نامه است. در 2 ژانویه، تقریباً 70 محقق در هتلی در سان خوان، پورتوریکو، برای یک کنفرانس سه روزه در مورد ایمنی هوش مصنوعی ملاقات کردند. این یک رویداد واقعا محرمانه بود. موسسه آینده زندگی (FLI) علیرغم برنامه ریزی حداقل شش ماه قبل از جلسه، از قبل به رسانه ها هشدار نداده بود، یا هیچ خبرنگاری را برای شرکت دعوت نکرده بود. حتی در حال حاضر، برگزارکنندگان رویداد لیست کاملی از شرکت کنندگان ارائه نمی دهند. FLI از محققان میخواست که در طول برنامه آخر هفته بحثهای رسمی و غیررسمی، صریح و بدون نگرانی از اسناد صحبت کنند.
در یک فیلم، این کنفرانس سایهدار، که توسط سازمانی با نام وسوسهانگیز میزبانی میشود – و در یک منطقه استوایی برگزار میشود، احتمالاً مورد حمله پیشگیرانهای از راهاندازی مجدد الگوریتمی خشمگین هیولای فرانکشتاین قرار میگیرد. یا، در دست فیلمسازان صبور بیشتر، نتیجه میتوانست یک راهاندازی در اولین اقدام باشد: یک فراخوان فوری برای توقف فوری تمام تحقیقات هوش مصنوعی (البته توسط یک دیوانه سرکش در اتاق سرور تاریک نادیده گرفته میشود). آن تیترهای اخبار بی بی سی و CNET کاملاً در صفحه نمایش فیلم ظاهر می شد و نشان دهنده واکنش جهانی به یک اعلامیه وحشتناک مشروع بود.
در واقع، نامه سرگشاده FLI یک ماجرای بسیار بی خون است. عنوان به تنهایی – اولویت های پژوهشی برای هوش مصنوعی قوی و مفید: نامه ای باز – باید انتظارات خواننده را مدیریت کند. این نامه به پیشرفتهایی در یادگیری ماشین، علوم اعصاب و سایر زمینههای تحقیقاتی اشاره دارد که در ترکیب، نتایج امیدوارکنندهای را برای سیستمهای هوش مصنوعی به همراه دارد. در مورد عذاب و ظلمت، تنها عبارت مربوطه عبارت است از «تلههای بالقوه» و این:
صادقانه بگویم که به اندازه این نامه سرگشاده تاریک است. چند گزاره کمی قوسی، مدفون در سندی که زبانش عمداً خوش بینانه است. امضاکنندگان علاقه مند به “به حداکثر رساندن منافع اجتماعی هوش مصنوعی” هستند و نامه با این فراخوان برای اقدام به پایان می رسد.
این سندی است که خبرگزاری ها آن را به عنوان فراخوانی برای محافظت از بشریت در برابر ماشین ها و مهار تحقیق و توسعه هوش مصنوعی تفسیر می کنند. این همچنین گواه این است که بسیاری از روزنامهنگاران، وقتی صحبت از هوش مصنوعی به میان میآید، موضوع را از دست نمیدهند. آنها به شما دروغ می گویند.
***
حقیقت این است که محققانی در جامعه هوش مصنوعی وجود دارند که به شدت نگران سوال ابر هوش مصنوعی هستند، به همین دلیل است که FLI بخشی را در سند همراه نامه در مورد این ترس ها گنجانده است. اما این نیز درست است که این محققان در اقلیت شدید قرار دارند. و به گفته بارت سلمان، استاد علوم کامپیوتر در کرنل، هدف از این نامه سرگشاده این بود که هیستری را که روزنامهنگاران سعی در القای آن به عموم مردم دارند و در عین حال نگرانیهای کوتاهمدت را مطرح کنند، از بین ببرد. برخی از این مسائل پیچیده و قانع کننده هستند. آیا سیستم یادگیری ماشینی یک شرکت وام مسکن به طور تصادفی حریم خصوصی متقاضی را نقض میکند و احتمالاً قانون را زیر پا میگذارد، زیرا در فرادادههای او عمیقتر میشود؟ سلمان نگران الگوریتم های سرکش نیست، بلکه نگران الگوریتم های معیوب یا بیش از حد مشتاق است. «این سیستمها اغلب اهداف سطح بالایی دارند. سلمان میگوید، بنابراین اطمینان از اینکه آنها با چیزی کاملاً متفاوت از آنچه شما میتوانید پیشبینی میکنید به اهداف خود نرسند، اهداف معقولی هستند. «مشکل ما این است که مطبوعات، مخصوصاً مطبوعات محبوب، به دنبال این زاویه واقعاً افراطی از ابرهوش و هوش مصنوعی هستند. و ما سعی میکنیم این را به آنها نشان دهیم، این یک زاویه است که میتوانید نگران آن باشید، اما برای ما چندان نگران کننده نیست.»
البته، این جملاتی از این دست هستند که وقتی خارج از چارچوب قرار می گیرند، می توانند آتش سوزی هایی را که آنها سعی در خاموش کردن آن دارند، دامن بزنند. سلمان که در کنفرانس سان خوان شرکت کرد و در نامه سرگشاده و سند تحقیقاتی FLI مشارکت داشت، با وجدان خوب نمی تواند نتیجه آینده را برای حوزه هوش مصنوعی رد کند. این نوع اخراج جزمی برای یک دانشمند مسؤول ناخوشایند است. اما او همچنین کمی بر روی محققانی که به نظر میرسد درگیر چشمانداز هوش مصنوعی بوت استرپ شدهاند، سایه نمیاندازد، یعنی سیستمی که ناگهان به طور تصاعدی هوشمندتر و توانمندتر میشود. سلمان میگوید: «افرادی که 20، 30 سال در این منطقه کار میکنند، این مشکل پیچیدگی و مقیاسپذیری را کمی بهتر از مردم میدانند که تازه وارد این منطقه شدهاند.
تاریخچه تحقیقات هوش مصنوعی مملو از معیارها و نقاط عطف نظری است که به نظر می رسد تنها مانع آنها کمبود منابع محاسباتی است. و با این حال، حتی با وجود اینکه فناوری پردازنده و ذخیرهسازی بالاتر از انتظارات محققان بوده است، ضربالاجلهای امیدوارکنندهترین (یا وحشتناکترین، بسته به برنامه شما) برنامههای کاربردی هوش مصنوعی در ۱۰ یا ۲۰ سال آینده باقی میمانند. قبلاً در مورد افسانه ابر هوش اجتناب ناپذیر نوشته ام، اما سلمان در این موضوع بسیار موجزتر است. او میگوید، اشتباه کلیدی در اشتباه گرفتن اصل با اجراست، و با فرض اینکه پرتاب منابع بیشتر در سیستم معین باعث افزایش انفجاری در قابلیت میشود. او میگوید: «افراد در علوم کامپیوتر بسیار آگاه هستند که، حتی اگر اصولاً بتوانید کاری را انجام دهید، اگر منابع نامحدودی در اختیار داشته باشید، ممکن است باز هم نتوانید آن را انجام دهید، زیرا منابع نامحدود به معنای نمایی نیست. بزرگ شدن و اگر مقیاس نمایی دارید، ناگهان 20 برابر این متغیرها خواهید داشت.” Bootstrapping AI به طور همزمان بدترین کابوس و رویای محقق AI است که به حقیقت می پیوندد – به جای این که یک قطعه کد آلوده به اشکال را برای هفته ها متوالی از بین ببرد، او می تواند عقب بنشیند و لعنتی را که خودش می نویسد تماشا کند.
در قلب این ترس از ابرهوش سوالی وجود دارد که در حال حاضر نمی توان به آن پاسخ داد. سلمان میگوید: «جریان اصلی جامعه هوش مصنوعی معتقد است که سیستمها در 10 یا 20 سال آینده به هوشی در سطح انسانی خواهند رسید، اگرچه منظور من همه جنبههای هوش نیست. به عنوان مثال، تشخیص گفتار و بینایی ممکن است به طور جداگانه به آن سطح از توانایی برسد، بدون اینکه به سیستمی اضافه شود که نوع نشانه های اجتماعی را که حتی کودکان نوپا می توانند دریافت کنند، درک کند. اما آیا کامپیوترها برنامه نویسان بزرگی خواهند بود یا ریاضیدانان بزرگ یا چیزهای دیگری که نیاز به خلاقیت دارند؟ این خیلی کمتر واضح است. برخی از موانع محاسباتی واقعی برای آن وجود دارد، و ممکن است در واقع موانع اساسی باشند.»Paradise Lost – مسلماً باید بتواند خود را به خدایی برنامه ریزی کند. آیا اصولاً چنین چیزی امکان پذیر است، در عمل چه کمتر؟
این سوالی است که FLI امیدوار است جامعه هوش مصنوعی به بررسی آن بپردازد، البته نه با فوریت خاصی. وقتی با ویکتوریا کراکوونا، یکی از بنیانگذاران سازمان صحبت کردم، او از نحوه تفسیر این نامه سرگشاده توسط رسانه ها نگران شد و تقریباً منحصراً روی موضوع ابراطلاعات متمرکز شد. او میگوید: «ما میخواستیم نشان دهیم که جامعه تحقیقاتی هوش مصنوعی، جامعهای متشکل از افراد مسئول است که در تلاش برای ساخت رباتهای مفید و هوش مصنوعی هستند. درعوض، خبرنگاران نامه را به عنوان چیزی شبیه یک عمل پشیمانی معرفی کرده اند، که FLI را به دلیل ایجاد سندی که به اندازه کافی جامع باشد، مجازات می کند تا امکان تحقیق در مورد سوال – نه تهدید، بلکه سوال – هوش مصنوعی فراری را در بر گیرد.
سلمان چنین پروژهای را شغلی برای «چند نفر» میداند تا سعی کنند مشکلی را تعریف کنند که تحقیق یا حتی تعریف نشده است. او آن را با کار انجام شده توسط فیزیکدانان نظری مقایسه می کند، که ممکن است تأثیرات برخی فاجعه های کیهانی را به عنوان یک سؤال تحقیقاتی محض محاسبه کنند. تا زمانی که مشخص نشود که این نسخه از آخرالزمان در اصل امکان پذیر است، چیزی برای محافظت وجود ندارد. این یک تمایز مهم است که به راحتی نادیده گرفته می شود. برای اینکه علم کار کند، باید به جهان قابل مشاهده توجه داشته باشد، نه با خرافات در اصطلاح علمی.
متأسفانه، احتمال اینکه پوشش هوش مصنوعی کمتر ترسناک شود، به اندازه برخورددهنده بزرگ هادرونی است که یک سیاهچاله را نابود می کند. آن داستان غیرقابل هضم آسان و روشی که اهمیت واقعی آن شتاب دهنده ذرات را کمرنگ کرد را به خاطر دارید؟ وقتی صحبت از کسب و کار دشوار پوشش علم و فناوری می شود، هیچ چیز مانند تهدید زندگی خوانندگان را جذب نمی کند.
به روز رسانی: از زمان انتشار این داستان، مشخص شد که من از علاقه FLI به انجام اقدامات فوری مرتبط با ابراطلاعات دست کم گرفته ام. یا، شاید، من دست کم گرفته ام که ایلان ماسک چقدر وحشت زده است. ماسک امروز اعلام کرد که 10 میلیون دلار برای حمایت از تحقیقاتی که هدف آن حفظ هوش مصنوعی برای بشریت مفید است، در قالب کمکهای مالی که توسط FLI اداره میشود، متعهد میشود. «این موردی است که در آن … دامنه پیامدهای منفی، برخی از آنها کاملاً شدید است. بنابراین مشخص نیست که آیا ما میتوانیم از برخی از این پیامدهای منفی بازیابی کنیم یا خیر. “شما می توانید سناریوهایی بسازید که در آن بازیابی تمدن بشری اتفاق نیفتد.”
و درست مانند آن، روزنامهنگاران بمب دیگری از نقل قول دارند – از کسی که محقق هوش مصنوعی نیست – تا آنها را در گذر از وحشت بزرگ هوش مصنوعی در سال 2015 تقویت کند.