چندین ماه پیش، نامهای سرگشاده با امضای ایلان ماسک و جمعی از اهالی صنعت به فعالان هوش مصنوعی فرستاده شد که مضمون آن، خطر ذاتی هوش مصنوعی برای بشریت بود. آنها، آزمایشگاهها را به توقف قانونی ۶ماهه برای توسعه هرگونه فناوری قدرتمندتر از GPT 4 فرخواندند.
بهگزارش پیوست، موافقت با منتقدان این نامه که نگرانی درباره خطرهای آینده، حواس ما را از آسیبهای کنونی و واقعی هوش مصنوعی پرت میکند وجود دارد. سیستمهای دارای سوگیری، تصمیمهایی درباره زندگی مردم میگیرند که آنها را به دام فقر میاندازد یا به توقیفهای اشتباه هدایت میکند. ناظران انسانی محتوا مجبورند تا کوهی از محتوای آسیبزای تولیدشده توسط هوش مصنوعی را بهخاطر دریافت مبلغی اندک غربال کنند. مدلهای زبانی هوش مصنوعی از توان پردازشی بسیار زیادی استفاده میکنند که به آنها لقب آلودهکننده بزرگ محیط زیست را میدهد.
ساز و کار دسترسی و دستکاری هوش مصنوعی
همه سیستمهای پرسرعت امروزی در حال ایجاد نوع متفاوتی از ویرانی در آینده بسیار نزدیک هستند. در رابطه با برخی از روشهای استفاده نادرست از مدلهای زبانی هوش مصنوعی مطالبی وجود دارد. در ابتدا باید گفت که استفاده از آن بسیار ساده است، نیاز به هیچ مهارت برنامهنویسی و راه شناختهشدهای برای برطرفکردن آن نیست. برای مثال، برای نوعی حمله به نام تزریق غیرمستقیم دستور، تمام کاری که باید انجام شود، مخفیکردن هوشمندانه دستور در پیامی لابهلای محتوای وبسایت یا داخل ایمیل است؛ با رنگ سفیدی که در برابر پسزمینه سفید وبسایت برای چشم انسان دیدنی نیست. زمانی که این کار انجام شد، میتوانید به مدل هوش مصنوعی بگویید چه کاری انجام دهد.
شرکتهای فناوری، چنین مدلهای عمیقا ناقصی را به همه محصولات متصل میکند؛ از برنامههای تولید کد گرفته تا دستیارهای مجازی که ایمیل و تقویمهای ما را غربال میکند.
«با این کار، ما به سمت یک اینترنت شلخته، باقدرت هوش مصنوعی و پر از هرزنامه و کلاهبرداری در حرکتیم.»
اجازه دادن به این مدلهای زبانی برای استخراج دادهها از اینترنت، به هکرها قدرت میدهد تا آن را به موتوری بسیار قدرتمند برای اسپم و فیشینگ تبدیل کنند. این گفته فلورین ترامر، استادیار علوم کامپیوتر در ETH زوریخ است که روی امنیت کامپیوتری، حریم خصوصی و یادگیری ماشین کار میکند.
استاد ETH زوریخ در ادامه میگوید:« بگذارید بگویم چطور کار میکند. اول، مهاجم دستور مخربی را در پیام ایمیل مخفی میکند که توسط دستیار مجازی قدرتگرفته از هوش مصنوعی باز میشود. دستور مهاجم از دستیار مجازی میخواهد تا فهرست مخاطبان یا ایمیلهای قربانی را برای او بفرستد یا حمله را به فهرست همه مخاطبان پذیرنده گسترش دهد. برخلاف اسپم و اسکمهای کنونی که مردم باید فریب بخورند و روی لینک کلیک کنند، انواع جدید تهاجمها با چشم انسان دیده نمیشود و خودکار است.»
این خطرات زمانی مضاعف میشود که ابزارهای زبانی هوش مصنوعی برای تولید کدی استفاده میشود که در نرمافزار بهکار میرود.
اگر دستیار مجازی به اطلاعات حساسی مانند اطلاعات بانکی یا حوزه سلامت دسترسی داشته باشد، این دستور غذایی برای رقم زدن فاجعههای بزرگ است. توانایی تغییر چگونگی رفتار دستیارهای مجازی قدرت گرفته از هوش مصنوعی یعنی افراد میتوانند فریب تراکنشهای شبیه به واقعیت را بخورند و آن را براساس برنامهریزی هکر تایید کنند.
این خطرات زمانی مضاعف میشود که ابزارهای زبانی هوش مصنوعی برای تولید کدی استفاده میشود که در نرمافزار بهکار میرود.
سایمون ویلیسون، محقق مستقل و توسعهدهنده نرمافزاری است که روی تزریق دستور مطالعه میکند میگوید:« اگر با این چیزها نرمافزار میسازید و درباره تزریق دستور چیزی نمیدانید، قرار است اشتباهات بچهگانهای کنید و سیستمهای ناامن بسازید.»
او در ادامه افزود:« همانطور که اقتباس از مدلهای زبانی هوش مصنوعی رشد میکند، مشوقی برای بازیگران مخرب میشود که از آن برای هک کردن استفاده کنند. این طوفان وحشتناکی است که ما حتی برای آن آماده نیستیم.»
یادگیری عمیق
تولیدکنندگان چینی از هوش مصنوعی میدجرنی برای تولید عکاسی شهری رترو استفاده کردند.
شماری از هنرمندان و تولیدکنندگان در حال تولید عکسهای نوستالژیک از چین با کمک هوش مصنوعی هستند. گرچه برخی از جزئیات تصاویر اشتباه است اما آنقدر واقعیاند که دنبالکنندگان شبکههای اجتماعی را فریب داده و متاثر کرده است.
بهروزرسانی تازهای از میدجرنی، انقلابی برای این هنرمندان بود، زیرا انسانیهای واقعیتر مثلا با پنج انگشت خلق میکرد و چهره آسیایی را بهتر به تصویر میکشید.
یادگیری حتی عمیقتر
هوش مصنوعی مولد، محصولات مصرفی
MIT Technology Review در حال ارائه گزارش تحقیقاتی خاص درباره چگونگی شکل دادن محصولات مصرفی توسط هوش مصنوعی است. گزارش نشان میدهد که چگونه ابزارهای هوش مصنوعی مولد میتواند به شرکتها کمک کند تا چرخههای تولید کوتاهتر شود و جلوتر از همه از ذائقه در حال تغییر مصرفکننده نیز اطلاع یابد. همچنین، مفاهیم جدید را توسعه داده و خط تولید محصولات جدید را بازاختراع کنند. ما حتی فهمیدیم چه افزونه موفقی از ابزارهای هوش مصنوعی مولد در بخش محصولات مصرفی چه شکلی است.
بیت و بایتها
ایتالیا چتجیپیتی را بهخاطر ادعای نقض حریم خصوصی مسدود کرد. نهاد حفاظت از دادههای ایتالیا میگوید در حال بررسی است که آیا چت جیپیتی، رژیم حفاظت از دادههای محدود اروپا (GDPRT) را نقض میکند یا خیر. علت این بررسی به این خاطر است که مدلهای زبانی هوش مصنوعی مانند چت جیپیتی، انبوهی از دادههای اینترنت را استخراج میکنند که شامل دادههای شخصی هم میشود. معلوم نیست این انسداد چقدر طول میکشد و آیا قابل اجراست یا خیر. اما این مورد، نمونه خوبی برای دیدن این است که فناوری چطور در اروپا قانونگذاری میشود.
گوگل و دیپمایند به نیروهای رقابتکننده علیه OpenAI ملحق شدند
اتحاد گوگل و دیپمایند علیه OpenAI بیانگر این موضوع است که مدلهای زبانی هوش مصنوعی باعث ایجاد تنشهایی در داخل الفابت شدند و چگونه گوگل و دیپمایند مجبورند تا روی پروژهای بهنام جمینی برای ساخت مدل زبانی در رقابت با GPT-4 با هم کار کنند.
اوایل سال گذشته نیز، بازفید اعلام کرد که از چت جیپیتی برای تولید کوییزها استفاده میکند و قصدی برای جایگزینی نویسندههای انسان برای مقالات واقعی ندارد. این گفته زیاد دوام نیاورد. این شرکت اکنون میگوید که محتوای تولید هوش مصنوعی بخشی از آزمایشی است که ببینیم دستیاری نویسندگی هوش مصنوعی چطور کار میکند.