بیش از ۳۳ هزار نفر – از جمله بسیاری از برجستهترین متخصصان هوش مصنوعی – نامهای سرگشاده در مارس ۲۰۲۳ امضا کردند که از صنعت فناوری میخواست توسعه مدلهای هوش مصنوعی قدرتمندتر از GPT-4 اوپنایآی را به مدت شش ماه متوقف کند. این نامه، که به ابتکار مؤسسه آینده زندگی (Future of Life Institute) منتشر شد، بیان میکرد: «سیستمهای قدرتمند هوش مصنوعی باید تنها زمانی توسعه یابند که مطمئن باشیم اثرات آنها مثبت و خطراتشان قابل کنترل خواهد بود.»
نتیجه: صنعت به این درخواست بیتوجهی کرد. اما این نامه باعث شد بحثی گسترده پیرامون این موضوع شکل بگیرد که توسعه هوش عمومی مصنوعی (AGI) ممکن است بدون کنترل مناسب از دست انسان خارج شود. این تنها یکی از تلاشهای این مؤسسه، که بیش از یک دهه قدمت دارد، برای ایجاد گفتگو پیرامون خطرات هوش مصنوعی و روشهای هدایت مسئولانه این فناوری بود.
گفتگو با ماکس تگمارک
در کنفرانس وب سامیت در لیسبون، گفتوگویی با ماکس تگمارک، یکی از بنیانگذاران و رئیس مؤسسه آینده زندگی، انجام شده است. تگمارک، استاد مؤسسه فناوری ماساچوست (MIT)، در زمینه تحقیق درباره «هوش مصنوعی برای فیزیک و فیزیک برای هوش مصنوعی» فعالیت دارد. در این گفتگو، موضوعاتی مانند تأثیر نامه سرگشاده، اهمیت مقرراتگذاری برای هوش مصنوعی، احتمال تحقق AGI در دوران ریاست جمهوری دونالد ترامپ، و نقش ایلان ماسک در مدیریت این چالشها مورد بحث قرار گرفته است. این گفتگو برای وضوح و اختصار ویرایش شده است.
آیا کارهایی که انجام میدهید، حتی با وجود عدم توقف صنعت هوش مصنوعی، به اهداف شما نزدیک شده است؟
هدف من از راهاندازی این نامه توقف، این نبود که فکر کنم واقعاً توقفی انجام خواهد شد. البته که آنقدر سادهلوح نیستم. هدف، عادیسازی این بحث و فراهمکردن شرایطی بود که افراد بتوانند نگرانیهای خود را آزادانه بیان کنند. در این مورد، احساس میکنم موفقیت بزرگی حاصل شده است.
این موضوع قطعاً توجه زیادی جلب کرد.
بسیاری از افراد و سازمانهایی که پیشتر درباره این موضوع سکوت کرده بودند، اکنون شروع به صحبت کردهاند. به نظر میرسید در جامعه نگرانیهای زیادی وجود داشت، اما بسیاری از افراد از ترس احمق جلوهکردن یا برچسب «ضد فناوری» خوردن، سکوت کرده بودند. اما وقتی دیدند رهبران این حوزه نیز نگرانی خود را بیان میکنند، احساس کردند این موضوع مشروعیت دارد. این اتفاق به شکلگیری موارد دیگری مثل نامه هشدار انقراض و در نهایت برگزاری جلسات استماع در سنا، اجلاسهای بینالمللی هوش مصنوعی و تأسیس مؤسسات ایمنی هوش مصنوعی کمک کرد که همگی گامهای مثبتی هستند.
برای مدت ۱۰ سال، حس میکردم مثل یک گرگ تنها هستم که هیچکس به این موضوع توجه نمیکند. اما حالا این وضعیت کاملاً تغییر کرده است.
این موضوع که افرادی از سازمانهای بزرگ نامه شما را امضا کردند، حتی اگر مدیران آنها این کار را نکردند، قابل توجه بود.
اما نامه انقراض در می ۲۰۲۳ توسط مدیران اصلی امضا شد. من این اقدام را تا حدی فریادی برای کمک از سوی برخی از این رهبران میدانم، زیرا هیچ شرکتی نمیتواند بهتنهایی متوقف شود؛ آنها توسط رقبا از میدان خارج خواهند شد. تنها نتیجه خوب این است که استانداردهای ایمنی برقرار شوند تا همه در یک شرایط برابر رقابت کنند.
این شبیه وضعیتی است که اگر سازمان غذا و دارو (FDA) وجود نداشت، هیچ شرکت دارویی نمیتوانست بهطور یکجانبه تولید دارو را متوقف کند. اما اگر FDA وجود داشته باشد و هیچ دارویی بدون تأیید آن منتشر نشود، یک توقف خودکار روی تمام داروهای ناایمن اعمال میشود. این مسئله ساختار انگیزشی صنعت را تغییر میدهد و آنها را وادار میکند روی آزمایشهای بالینی سرمایهگذاری کنند و محصولات ایمنتری تولید کنند.
ما این مدل را در تقریباً تمام صنایع آمریکا داریم: داروها، خودروها، هواپیماها، حتی فروشگاههای ساندویچ. هرکسی باید تأییدیه بازرسان بهداشتی را بگیرد. اما صنعت هوش مصنوعی کاملاً استثناست؛ هیچ استاندارد ایمنی معناداری برای آن وجود ندارد. اگر پیشبینی سم آلتمن محقق شود و به AGI برسد، او از نظر قانونی مجاز است که آن را منتشر کند و ببیند چه اتفاقی میافتد.
چقدر اطمینان دارید که میدانید مقررات باید چگونه باشد، با توجه به اینکه هوش مصنوعی سریعتر از استانداردهای ایمنی مغازههای ساندویچ یا حتی داروها پیش میرود؟
فکر میکنم این موضوع واقعاً ساده است. سختتر این است که چارچوب نهادیای وجود داشته باشد که بتواند هر استانداردی که وضع میشود را اجرا کند. شما تمام ذینفعان کلیدی را دور هم جمع میکنید، با استانداردهای پایه شروع میکنید، و سپس بهتدریج سطح استانداردها را بالا میبرید.
برای مثال، در مورد خودروها، ما با الزامات کیسه هوا یا ترمز ضدقفل شروع نکردیم. ابتدا کمربند ایمنی الزامی شد، سپس چراغهای راهنمایی و محدودیتهای سرعت اعمال شدند. این اقدامات بسیار ابتدایی بودند، اما تأثیر زیادی داشتند. زمانی که قانون کمربند ایمنی تصویب شد، باعث کاهش قابل توجهی در مرگومیرها شد و همین امر فروش خودروها را افزایش داد.
در مورد هوش مصنوعی هم همینطور است. برخی اصول بسیار پایه وجود دارند که تقریباً هیچ مخالفتی با آنها نیست و باید در استانداردها گنجانده شوند. بهعنوان مثال، هوش مصنوعی نباید به تروریستها نحوه ساخت سلاحهای زیستی را آموزش دهد. چه کسی با این مخالف خواهد بود؟ یا باید اثبات شود که این سیستمها نوعی سیستم خودبهبودیابنده نیستند که کنترل از دست برود.
حتی اگر فقط با همین موارد پایه شروع کنیم، بهطور خودکار از انتشار AGI جلوگیری میشود. در این صورت شاهد تمرکز دوباره روی ابزارهای مفیدتر خواهیم بود: هوش مصنوعی که بیماریها را درمان میکند، رنج انسانها را کاهش میدهد و کارهایی انجام میدهد که واضحاً مطابق با استانداردهاست. من نسبت به بسیاری از مباحث این کنفرانس در Web Summit که نشان میدهد چقدر هوش مصنوعی میتواند سودمند باشد، خوشبین هستم. نگرانیها عمدتاً از دست رفتن کنترل ناشی از کوتاه شدن بازه زمانیهاست. اگر بتوانید مطمئن شوید که AGI معادل آزمایشهای بالینی خودش را طی میکند، تمرکز روی جنبههای مثبت بیشتر خواهد شد.
آیا میتوانید پیشبینی کنید که دولت جدید چه تأثیری در این زمینه خواهد داشت؟
فکر میکنم این مسئله بستگی به این دارد که دونالد ترامپ تا چه حد به حرف ایلان ماسک گوش دهد. از یک طرف، گروهی از افراد مخالف مقررات هستند و سعی میکنند ترامپ را متقاعد کنند حتی دستور اجرایی بایدن را، که بسیار ضعیف بود، لغو کند. از طرف دیگر، ایلان ماسک بیش از یک دهه است که از مقررات هوش مصنوعی حمایت میکند و اخیراً از قانونگذاری ایالتی کالیفرنیا (SB 1047) نیز حمایت کرده است. این موضوع واقعاً به شیمی ارتباطات و میزان نفوذ افراد بستگی دارد.
به نظر من، این موضوع مهمترین مسئله برای دولت ترامپ است، زیرا احتمالاً AGI در دوره ریاستجمهوری ترامپ ساخته خواهد شد. بنابراین در طول این دوره، این تصمیمات گرفته میشوند: اینکه آیا به سمت یک فاجعه میرویم یا هوش مصنوعی به بهترین اتفاق تاریخ تبدیل میشود.
اگر کنترل AGI را از دست بدهیم، صادقانه بگویم، هیچکدام از مسائل دیگر اهمیت نخواهند داشت. نامهای که درباره خطر انقراض امضا شد، شوخی نبود. مردم واقعاً درباره انقراض انسان صحبت میکردند و کاملاً جدی بودند. من درباره همه مسائل دیگر سیاسی نظراتی دارم و شما هم احتمالاً همینطور، اما میتوانیم همه اینها را کنار بگذاریم. هیچکدام از موضوعات سیاسی که ترامپ و کامالا هریس در آنها اختلاف نظر دارند، وقتی انسان منقرض شود، مهم نیستند. حتی اگر منقرض نشویم اما کنترل را به یک گونه جدید از رباتهای خودبهبوددهنده واگذار کنیم، باز هم این موضوع حیاتی خواهد بود.
البته همه تلاش میکنند ترامپ را به این یا آن سمت سوق دهند. اما اگر ترامپ در نهایت از استانداردهای ایمنی هوش مصنوعی حمایت کند، احتمالاً تأثیر ایلان ماسک یکی از دلایل کلیدی آن خواهد بود.
چه پیشرفتهای جدیدی در حوزه کاری شما رخ داده است؟
من هنوز دو نقش دارم. شغل روزانه من این است که بهعنوان یک متخصص در MIT تحقیقات مربوط به هوش مصنوعی را انجام میدهم. تمرکز ما بر موضوعات فنی مرتبط با کنترل و اعتماد به هوش مصنوعی است. نرمافزاری که روی لپتاپ شما نصب شده، عمدتاً توسط انسانها نوشته شده است، بنابراین ما میدانیم چگونه کار میکند. اما در مورد مدلهای زبانی بزرگ، عادت کردهایم که هیچ سرنخی از نحوه عملکرد آنها نداشته باشیم. البته، هیچکس در OpenAI هم نمیداند این سیستمها چگونه کار میکنند.
اما در واقع، خبرهای امیدوارکنندهای وجود دارد: ما در حال شروع به درک نحوه عملکرد این مدلها هستیم. من این را علوم اعصاب دیجیتال مینامم. همانطور که میتوان مغز انسان را بررسی کرد و تلاش کرد بفهمیم چگونه کار میکند. هنوز نمیدانیم مغز چگونه کار میکند، اما برخی جنبههای آن را تقریباً کاملاً درک کردهایم، مثلاً سیستم بصری انسان.
پیشرفت در علوم اعصاب مصنوعی بسیار سریعتر بوده است. من بزرگترین کنفرانس در این زمینه را حدود یک سال و نیم پیش در MIT سازماندهی کردم و از آن زمان، این حوزه واقعاً شکوفا شده است. دلیل پیشرفت سریعتر این است که در علوم اعصاب انسانی، شما با صد میلیارد نورون سروکار دارید و سخت میتوانید بیش از هزار تا را همزمان اندازهگیری کنید. علاوه بر این، سر و صدای زیادی وجود دارد و برای دریافت مجوز اخلاقی باید به کمیته بازبینی نهادی مراجعه کنید.
اما در مورد هوش مصنوعی دیجیتال، میتوانید هر نورون را در هر زمان اندازهگیری کنید و حتی سیناپسها را بررسی کنید، و نیازی به تأیید اخلاقی ندارید. این رؤیای دانشمندان برای درک یک سیستم است و پیشرفتها بسیار سریع بودهاند. اکنون ما در حال نقشهبرداری از نحوه ذخیره مفاهیم مختلف در هوش مصنوعی هستیم و شروع به فهم نحوه انجام برخی وظایف جالب توسط این سیستمها کردهایم.
این پیشرفت میتواند به ما کمک کند میزان اعتماد به هوش مصنوعی را ارزیابی کنیم. همچنین میتواند نشان دهد هوش مصنوعی چه چیزی را میداند و چگونه فکر میکند. مثلاً ما مقالهای نوشتیم که در آن توانستیم یک دروغسنج بسازیم: میتوانستیم بفهمیم هوش مصنوعی چه چیزی را درست یا غلط میداند و سپس آن را با آنچه ادعا میکند درست یا غلط است مقایسه کنیم تا مشخص شود دروغ میگوید یا راست. این گامهای ابتدایی هستند، اما جامعهای در حال رشد است که پیشرفتهای بسیار سریعی در این زمینه دارد. نباید آنقدر بدبین باشیم که فکر کنیم همیشه باید نسبت به نحوه عملکرد این سیستمها بیاطلاع بمانیم.
آیا اگر واقعاً آنها را درک کنیم، کنترل آنها بسیار آسانتر خواهد شد؟
این بستگی به این دارد که بخواهید چه چیزی را کنترل کنید. اما اگر یک استاندارد ایمنی وجود داشته باشد که بگوید باید نشان دهید که این مدلها هرگز نمیتوانند به یک تروریست آموزش دهند که چگونه یک سلاح زیستی بسازد، یک راه آسان برای انجام این کار این است که بررسی کنید آیا مدل چیزی درباره زیستشناسی میداند یا نه. اگر میداند، آن اطلاعات را حذف کنید تا مدلی داشته باشید که درباره شکسپیر، هواپیماها و سایر موارد تسلط کامل دارد، اما هیچ چیزی درباره زیستشناسی نمیداند، بنابراین نمیتواند در ساخت یک سلاح زیستی کمک کند.
اما در برخی سناریوها، دانستن زیستشناسی میتواند مفید باشد.
البته، اما شاید در این حالت لازم باشد تا زمان بیشتری صرف اخذ مجوز FDA شود. اما فکر میکنم میتوانید متوجه شوید که به کجا میروم. شاید بتوانید تعیین کنید که زیستشناسی در کل مشکلی ندارد، اما جنبههای خاصی وجود دارد که نمیخواهید مدل بداند. این همان روشی است که در یک سازمان عمل میکنید. اگر رئیس CIA باشید و برخی اطلاعاتی که میخواهید واقعاً محافظت کنید، بهترین راه برای اطمینان از اینکه کسی آن اطلاعات را افشا نمیکند، این است که اصلاً آن را نداند. به همین صورت، هیچ دلیلی وجود ندارد که هر مدل زبانی بزرگی همه چیز را بداند. امنتر است که ماشینهایی داشته باشید که فقط اطلاعاتی را بدانند که مشکلی با عمومی بودن یا استفاده عمومی آن ندارید.
بیشتر بخوانید: مغز انسان همچنان بر هوش مصنوعی برتری دارد
اگر مدلهایی تخصصی برای کاربردهای خاص داشته باشیم چه؟
اگر چیزی را به یک مرکز پژوهشی مثل دانا فاربر برای تحقیقات سرطان میفروشید، میتوانید مدلی داشته باشید که اطلاعات بیشتری در زمینه زیستشناسی دارد. اما احتمالاً برای کار شما نیازی به این اطلاعات نیست، درست است؟ من که مطمئناً نیازی به آن ندارم.
آیا قصد دارید نامههای سرگشاده بیشتری بنویسید یا درباره موضوعات دیگر گفتوگو ایجاد کنید؟
فکر میکنم چیزی که واقعاً به آن نیاز داریم، استانداردهای ایمنی ملی برای هوش مصنوعی است. باید از رفتار ملایم با این صنعت دست برداریم و آنها را مانند تمام صنایع دیگر تحت قوانین قرار دهیم. تصور کنید کسی بگوید FDA را تعطیل کنیم و شرکتهای زیستفناوری بدون استانداردهای ایمنی کار کنند. هوش مصنوعی در این زمینه متفاوت است و دلیل خاصی وجود ندارد که بتواند هر کاری که میخواهد انجام دهد. به محض اینکه این استانداردها اعمال شوند، بقیه کارها به خودی خود پیش میرود. زیرا شرکتها برای برآورده کردن آن استانداردها شروع به نوآوری خواهند کرد.
اتحادیه اروپا در برخی موارد تأثیر زیادی روی شرکتهای فناوری آمریکایی داشته است. نظرتان درباره این موضوع چیست؟
فکر میکنم قانون اتحادیه اروپا در این زمینه کمی ضعیف است، اما قطعاً قدمی مثبت در مسیر درست است. در حال حاضر، کارهای فنی زیادی انجام میشود تا مشخص شود این قوانین در عمل چگونه اجرا شوند، که میتوان آنها را به راحتی توسط سایر حوزههای قضایی مثل ایالات متحده کپی کرد.
همچنین فکر میکنم جالب بود که این قانون به نوعی تهدید برخی شرکتها را که گفتند اگر این قانون تصویب شود از اتحادیه اروپا خارج خواهند شد، بیاثر کرد. آنها هنوز اینجا هستند. بنابراین وقتی میگویند اگر ایالات متحده استانداردهایی وضع کند مجبور به ترک این کشور میشوند، قانونگذاران آمریکایی میدانند که این فقط یک تهدید توخالی است. نمیتوانم شرکتها را بابت این رفتار سرزنش کنم، زیرا شرکتهای دخانیات هم همین کار را کردند. شرکتها همیشه به صورت غریزی در برابر قوانین مقاومت میکنند. اما هر استاندارد ایمنی موفقی که تاکنون به یاد دارم، همیشه با این ادعا روبرو شده که «آسمان در حال سقوط است.»
اما در همین صنعت هوش مصنوعی افرادی هستند که میگویند قانونگذاری باید نقش مهمی داشته باشد.
نمیخواهم کسی را قضاوت کنم، اما واقعاً خندهدار است که برخی افراد میگویند «لطفاً ما را قانونمند کنید» و وقتی پیشنهادی مثل قانون اتحادیه اروپا یا SB 1047 مطرح میشود، میگویند «اما نه اینطوری.» بنابراین فکر میکنم این تصمیمات باید به صورت دموکراتیک گرفته شوند. باید به شرکتها گوش داد، اما آنها نباید در زمان تصمیمگیری، جایگاهی در میز تصمیمگیری داشته باشند.