نامه ای سرگشاده به همه کسانی که فریب خورده‌اند و از هوش مصنوعی می‌ترسند

تبلیغات در مورد هوش مصنوعی یا وحشت را باور نکنید

در اوایل این هفته، سازمانی به نام مؤسسه آینده زندگی نامه‌ای سرگشاده با موضوع اقدامات ایمنی ساختمان در سیستم های هوش مصنوعی (AI) منتشر کرد. این نامه و سند تحقیقاتی همراه با آن، نگاهی کاملاً یکنواخت به این موضوع دارد که چگونه محققان هوش مصنوعی می‌توانند پتانسیل این فناوری را به حداکثر برسانند. این نامه در بدترین حالتش است، یعنی اصلاً شوم نیست:

و در اینجا تیتر CNET را برای داستان آن در مورد نامه مشاهده می‌کنیم:

در همین حال، اخبار بی‌بی‌سی کمی بیشتر از اتاق وحشت خارج شد تا این دروغ را ارائه دهد:

من می خواهم فکر کنم که این پایین سنگ است. وقتی صحبت از ربات‌ها و هوش مصنوعی به میان می‌آید، روزنامه‌نگاران احتمالاً نمی‌توانند بیش از این بی‌خبر یا به طرز بی‌رحمانه‌ای طعمه ترافیک باشند. و خوانندگان باید در برخی مواقع از کلیک کردن بر روی همان تیترهای تندخو خسته شوند، که به نقل از همان محققان غیر هوش مصنوعی – الون ماسک و استیون هاوکینگ، به طور خاص – اعلامیه های روز قیامت را اعلام می کنند. ترس افکنی همیشه در طول زمان مزیت خود را از دست می دهد و حتی سمی ترین پوشش رسانه ای نیمه عمر ذاتی دارد. اما هرگز متوقف نمی شود.

خطری که ماشین‌ها در دهه‌های آینده برای ما ایجاد می‌کنند را فراموش کنید. سوال مهم‌تر، در سال 2015، این است که آیا کسی قرار است از بشریت در برابر روزنامه‌نگاران نادانش محافظت کند؟

***

این همان چیزی است که هنگام پوشش دادن هوش مصنوعی به نظر می رسد خود را احمق کنید.

با کمترین گزارش ممکن شروع کنید. در این مورد، این بدان معناست که نامه سرگشاده ای را بخوانید که به صورت آنلاین منتشر شده است، و زحمت مصاحبه با هیچ یک از افراد دخیل در ایجاد آن را نداشته باشید. برای استفاده از داستان‌های CNET و BBC به عنوان مثال، هیچ کدام شامل نقل قول‌ها یا توضیح‌هایی از محققانی نیست که به گردآوری نامه یا سند تحقیقاتی همراه آن کمک کرده‌اند.. این تابعی از سرعت است، اما همچنین یک تصمیم تاکتیکی است (چه آگاهانه یا نه). مانند هر داستانی که بر هشدارهای دیوانه وار در مورد هوش مصنوعی آخرالزمانی متمرکز است، هرچه بیشتر گزارش دهید، فرضیه موضوعی نامفهوم تر می شود. کارشناسان در این زمینه تمایل دارند به این نکته اشاره کنند که تئاتر در آتش نیست، که وقتی ماموریت اصلی شما این است که خوانندگان را به تکاپو برای خروج بفرستید اصلاً جالب نیست.

الصاق عنوانی که تصویری از اندرویدهای اسکلتی را تداعی می‌کند که جمجمه‌های انسان را زیر پا می‌کوبند، فناوری پیچیده و دگرگون‌کننده را به یک نمایش فرعی کارناوال تبدیل می‌کند.

سریع‌تر و دراماتیک‌تر اقدام، ارائه چیزی است که به نظر می‌رسد، اما در واقع فقط ایلان ماسک و استیون هاوکینگ درباره موضوعی صحبت می‌کنند که هیچ یک از تخصص‌های آنها نیست. من به آنها اشاره می کنم، به ویژه، زیرا آنها به صدای جمعی وحشت هوش مصنوعی تبدیل شده اند. آنها معتقدند که ابرهوش ماشینی می تواند منجر به انقراض ما شود. و نظرات آنها در این زمینه زنگ حقیقت را دارد، زیرا آنها از ذهن های درخشان با کمبود مبارک فیلترهای رسانه ای می آیند. اگر زمان پول است، پس نقل قول های بازیافتی بی پایان از ماسک و هاوکینگ معدن طلایی برای خبرنگاران و سردبیران خشمگین است. به چه زمینه ای بیشتر از یک جفت نابغه نیاز دارید که علناً از سقوط نوع بشر ناراحت هستند؟

و این تمام چیزی است که برای گزارش در مورد موضوعی لازم است که ریسک آن احتمالاً نمی تواند بیشتر باشد. برش و چسباندن از اسناد آنلاین، و از مصاحبه‌ها، توییت‌ها و نظرات قبلی، عنوانی را بچسبانید که تصوراتی از اندرویدهای اسکلتی که جمجمه‌های انسان را زیر پا می‌کوبند را تداعی می‌کند، و منتظر بمانید تا نشانه‌ها از بین بروند. این همان کاری است که این نوع روزنامه نگاری با سازندگان و مصرف کنندگانش می کند. این یک فناوری پیچیده و متحول کننده را به یک نمایش فرعی کارناوال تبدیل می کند. در واقع، این به بیشتر پوشش هوش مصنوعی اعتبار زیادی می دهد. کارنی ها برای دستمزد خود سخت کار می کنند. خبرنگاران فناوری فقط باید سریع کار کنند.

***

داستان پشت نامه سرگشاده از جهاتی جالب تر از خود نامه است. در 2 ژانویه، تقریباً 70 محقق در هتلی در سان خوان، پورتوریکو، برای یک کنفرانس سه روزه در مورد ایمنی هوش مصنوعی ملاقات کردند. این یک رویداد واقعا محرمانه بود. موسسه آینده زندگی (FLI) علیرغم برنامه ریزی حداقل شش ماه قبل از جلسه، از قبل به رسانه ها هشدار نداده بود، یا هیچ خبرنگاری را برای شرکت دعوت نکرده بود. حتی در حال حاضر، برگزارکنندگان رویداد لیست کاملی از شرکت کنندگان ارائه نمی دهند. FLI از محققان می‌خواست که در طول برنامه آخر هفته بحث‌های رسمی و غیررسمی، صریح و بدون نگرانی از اسناد صحبت کنند.

در یک فیلم، این کنفرانس سایه‌دار، که توسط سازمانی با نام وسوسه‌انگیز میزبانی می‌شود – و در یک منطقه استوایی برگزار می‌شود، احتمالاً مورد حمله پیشگیرانه‌ای از راه‌اندازی مجدد الگوریتمی خشمگین هیولای فرانکشتاین قرار می‌گیرد. یا، در دست فیلمسازان صبور بیشتر، نتیجه می‌توانست یک راه‌اندازی در اولین اقدام باشد: یک فراخوان فوری برای توقف فوری تمام تحقیقات هوش مصنوعی (البته توسط یک دیوانه سرکش در اتاق سرور تاریک نادیده گرفته می‌شود). آن تیترهای اخبار بی بی سی و CNET کاملاً در صفحه نمایش فیلم ظاهر می شد و نشان دهنده واکنش جهانی به یک اعلامیه وحشتناک مشروع بود.

در واقع، نامه سرگشاده FLI یک ماجرای بسیار بی خون است. عنوان به تنهایی – اولویت های پژوهشی برای هوش مصنوعی قوی و مفید: نامه ای باز – باید انتظارات خواننده را مدیریت کند. این نامه به پیشرفت‌هایی در یادگیری ماشین، علوم اعصاب و سایر زمینه‌های تحقیقاتی اشاره دارد که در ترکیب، نتایج امیدوارکننده‌ای را برای سیستم‌های هوش مصنوعی به همراه دارد. در مورد عذاب و ظلمت، تنها عبارت مربوطه عبارت است از «تله‌های بالقوه» و این:

صادقانه بگویم که به اندازه این نامه سرگشاده تاریک است. چند گزاره کمی قوسی، مدفون در سندی که زبانش عمداً خوش بینانه است. امضاکنندگان علاقه مند به “به حداکثر رساندن منافع اجتماعی هوش مصنوعی” هستند و نامه با این فراخوان برای اقدام به پایان می رسد.

این سندی است که خبرگزاری ها آن را به عنوان فراخوانی برای محافظت از بشریت در برابر ماشین ها و مهار تحقیق و توسعه هوش مصنوعی تفسیر می کنند. این همچنین گواه این است که بسیاری از روزنامه‌نگاران، وقتی صحبت از هوش مصنوعی به میان می‌آید، موضوع را از دست نمی‌دهند. آنها به شما دروغ می گویند.

***

حقیقت این است که محققانی در جامعه هوش مصنوعی وجود دارند که به شدت نگران سوال ابر هوش مصنوعی هستند، به همین دلیل است که FLI بخشی را در سند همراه نامه در مورد این ترس ها گنجانده است. اما این نیز درست است که این محققان در اقلیت شدید قرار دارند. و به گفته بارت سلمان، استاد علوم کامپیوتر در کرنل، هدف از این نامه سرگشاده این بود که هیستری را که روزنامه‌نگاران سعی در القای آن به عموم مردم دارند و در عین حال نگرانی‌های کوتاه‌مدت را مطرح کنند، از بین ببرد. برخی از این مسائل پیچیده و قانع کننده هستند. آیا سیستم یادگیری ماشینی یک شرکت وام مسکن به طور تصادفی حریم خصوصی متقاضی را نقض می‌کند و احتمالاً قانون را زیر پا می‌گذارد، زیرا در فراداده‌های او عمیق‌تر می‌شود؟ سلمان نگران الگوریتم های سرکش نیست، بلکه نگران الگوریتم های معیوب یا بیش از حد مشتاق است. «این سیستم‌ها اغلب اهداف سطح بالایی دارند. سلمان می‌گوید، بنابراین اطمینان از اینکه آنها با چیزی کاملاً متفاوت از آنچه شما می‌توانید پیش‌بینی می‌کنید به اهداف خود نرسند، اهداف معقولی هستند. «مشکل ما این است که مطبوعات، مخصوصاً مطبوعات محبوب، به دنبال این زاویه واقعاً افراطی از ابرهوش و هوش مصنوعی هستند. و ما سعی می‌کنیم این را به آنها نشان دهیم، این یک زاویه است که می‌توانید نگران آن باشید، اما برای ما چندان نگران کننده نیست.»

البته، این جملاتی از این دست هستند که وقتی خارج از چارچوب قرار می گیرند، می توانند آتش سوزی هایی را که آنها سعی در خاموش کردن آن دارند، دامن بزنند. سلمان که در کنفرانس سان خوان شرکت کرد و در نامه سرگشاده و سند تحقیقاتی FLI مشارکت داشت، با وجدان خوب نمی تواند نتیجه آینده را برای حوزه هوش مصنوعی رد کند. این نوع اخراج جزمی برای یک دانشمند مسؤول ناخوشایند است. اما او همچنین کمی بر روی محققانی که به نظر می‌رسد درگیر چشم‌انداز هوش مصنوعی بوت استرپ شده‌اند، سایه نمی‌اندازد، یعنی سیستمی که ناگهان به طور تصاعدی هوشمندتر و توانمندتر می‌شود. سلمان می‌گوید: «افرادی که 20، 30 سال در این منطقه کار می‌کنند، این مشکل پیچیدگی و مقیاس‌پذیری را کمی بهتر از مردم می‌دانند که تازه وارد این منطقه شده‌اند.

تاریخچه تحقیقات هوش مصنوعی مملو از معیارها و نقاط عطف نظری است که به نظر می رسد تنها مانع آنها کمبود منابع محاسباتی است. و با این حال، حتی با وجود اینکه فناوری پردازنده و ذخیره‌سازی بالاتر از انتظارات محققان بوده است، ضرب‌الاجل‌های امیدوارکننده‌ترین (یا وحشتناک‌ترین، بسته به برنامه شما) برنامه‌های کاربردی هوش مصنوعی در ۱۰ یا ۲۰ سال آینده باقی می‌مانند. قبلاً در مورد افسانه ابر هوش اجتناب ناپذیر نوشته ام، اما سلمان در این موضوع بسیار موجزتر است. او می‌گوید، اشتباه کلیدی در اشتباه گرفتن اصل با اجراست، و با فرض اینکه پرتاب منابع بیشتر در سیستم معین باعث افزایش انفجاری در قابلیت می‌شود. او می‌گوید: «افراد در علوم کامپیوتر بسیار آگاه هستند که، حتی اگر اصولاً بتوانید کاری را انجام دهید، اگر منابع نامحدودی در اختیار داشته باشید، ممکن است باز هم نتوانید آن را انجام دهید، زیرا منابع نامحدود به معنای نمایی نیست. بزرگ شدن و اگر مقیاس نمایی دارید، ناگهان 20 برابر این متغیرها خواهید داشت.” Bootstrapping AI به طور همزمان بدترین کابوس و رویای محقق AI است که به حقیقت می پیوندد – به جای این که یک قطعه کد آلوده به اشکال را برای هفته ها متوالی از بین ببرد، او می تواند عقب بنشیند و لعنتی را که خودش می نویسد تماشا کند.

در قلب این ترس از ابرهوش سوالی وجود دارد که در حال حاضر نمی توان به آن پاسخ داد. سلمان می‌گوید: «جریان اصلی جامعه هوش مصنوعی معتقد است که سیستم‌ها در 10 یا 20 سال آینده به هوشی در سطح انسانی خواهند رسید، اگرچه منظور من همه جنبه‌های هوش نیست. به عنوان مثال، تشخیص گفتار و بینایی ممکن است به طور جداگانه به آن سطح از توانایی برسد، بدون اینکه به سیستمی اضافه شود که نوع نشانه های اجتماعی را که حتی کودکان نوپا می توانند دریافت کنند، درک کند. اما آیا کامپیوترها برنامه نویسان بزرگی خواهند بود یا ریاضیدانان بزرگ یا چیزهای دیگری که نیاز به خلاقیت دارند؟ این خیلی کمتر واضح است. برخی از موانع محاسباتی واقعی برای آن وجود دارد، و ممکن است در واقع موانع اساسی باشند.»Paradise Lost – مسلماً باید بتواند خود را به خدایی برنامه ریزی کند. آیا اصولاً چنین چیزی امکان پذیر است، در عمل چه کمتر؟

این سوالی است که FLI امیدوار است جامعه هوش مصنوعی به بررسی آن بپردازد، البته نه با فوریت خاصی. وقتی با ویکتوریا کراکوونا، یکی از بنیانگذاران سازمان صحبت کردم، او از نحوه تفسیر این نامه سرگشاده توسط رسانه ها نگران شد و تقریباً منحصراً روی موضوع ابراطلاعات متمرکز شد. او می‌گوید: «ما می‌خواستیم نشان دهیم که جامعه تحقیقاتی هوش مصنوعی، جامعه‌ای متشکل از افراد مسئول است که در تلاش برای ساخت ربات‌های مفید و هوش مصنوعی هستند. درعوض، خبرنگاران نامه را به عنوان چیزی شبیه یک عمل پشیمانی معرفی کرده اند، که FLI را به دلیل ایجاد سندی که به اندازه کافی جامع باشد، مجازات می کند تا امکان تحقیق در مورد سوال – نه تهدید، بلکه سوال – هوش مصنوعی فراری را در بر گیرد.

سلمان چنین پروژه‌ای را شغلی برای «چند نفر» می‌داند تا سعی کنند مشکلی را تعریف کنند که تحقیق یا حتی تعریف نشده است. او آن را با کار انجام شده توسط فیزیکدانان نظری مقایسه می کند، که ممکن است تأثیرات برخی فاجعه های کیهانی را به عنوان یک سؤال تحقیقاتی محض محاسبه کنند. تا زمانی که مشخص نشود که این نسخه از آخرالزمان در اصل امکان پذیر است، چیزی برای محافظت وجود ندارد. این یک تمایز مهم است که به راحتی نادیده گرفته می شود. برای اینکه علم کار کند، باید به جهان قابل مشاهده توجه داشته باشد، نه با خرافات در اصطلاح علمی.

متأسفانه، احتمال اینکه پوشش هوش مصنوعی کمتر ترسناک شود، به اندازه برخورددهنده بزرگ هادرونی است که یک سیاهچاله را نابود می کند. آن داستان غیرقابل هضم آسان و روشی که اهمیت واقعی آن شتاب دهنده ذرات را کمرنگ کرد را به خاطر دارید؟ وقتی صحبت از کسب و کار دشوار پوشش علم و فناوری می شود، هیچ چیز مانند تهدید زندگی خوانندگان را جذب نمی کند.

به روز رسانی: از زمان انتشار این داستان، مشخص شد که من از علاقه FLI به انجام اقدامات فوری مرتبط با ابراطلاعات دست کم گرفته ام. یا، شاید، من دست کم گرفته ام که ایلان ماسک چقدر وحشت زده است. ماسک امروز اعلام کرد که 10 میلیون دلار برای حمایت از تحقیقاتی که هدف آن حفظ هوش مصنوعی برای بشریت مفید است، در قالب کمک‌های مالی که توسط FLI اداره می‌شود، متعهد می‌شود. «این موردی است که در آن … دامنه پیامدهای منفی، برخی از آنها کاملاً شدید است. بنابراین مشخص نیست که آیا ما می‌توانیم از برخی از این پیامدهای منفی بازیابی کنیم یا خیر. “شما می توانید سناریوهایی بسازید که در آن بازیابی تمدن بشری اتفاق نیفتد.”

و درست مانند آن، روزنامه‌نگاران بمب دیگری از نقل قول دارند – از کسی که محقق هوش مصنوعی نیست – تا آنها را در گذر از وحشت بزرگ هوش مصنوعی در سال 2015 تقویت کند.

امتیاز بدهید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *