ارتباط با ما
09392116387

تجربه اینترنتی شلخته و قدرتمند با هوش مصنوعی

چندین ماه پیش، نامه‌ای سرگشاده با امضای ایلان ماسک و جمعی از اهالی صنعت به فعالان هوش مصنوعی فرستاده شد که مضمون آن، خطر ذاتی هوش مصنوعی برای بشریت بود. آن‌ها، آزمایشگاه‌ها را به توقف قانونی ۶ماهه برای توسعه هرگونه فناوری قدرتمندتر از GPT 4 فرخواندند.

به‌گزارش پیوست، موافقت با منتقدان این نامه که نگرانی درباره خطرهای آینده، حواس ما را از آسیب‌های کنونی و واقعی هوش مصنوعی پرت می‌کند وجود دارد. سیستم‌های دارای سوگیری، تصمیم‌هایی درباره زندگی مردم می‌گیرند که آن‌ها را به دام فقر می‌اندازد یا به توقیف‌های اشتباه هدایت می‌کند. ناظران انسانی محتوا مجبورند تا کوهی از محتوای آسیب‌زای تولیدشده توسط هوش مصنوعی را به‌خاطر دریافت مبلغی اندک غربال کنند. مدل‌های زبانی هوش مصنوعی از توان پردازشی بسیار زیادی استفاده می‌کنند که به آن‌ها لقب آلوده‌کننده بزرگ محیط زیست را می‌دهد.

ساز و کار دسترسی و دستکاری هوش مصنوعی

همه سیستم‌های پرسرعت امروزی در حال ایجاد نوع متفاوتی از ویرانی در آینده بسیار نزدیک هستند. در رابطه با برخی از روش‌های استفاده نادرست از مدل‌های زبانی هوش مصنوعی مطالبی وجود دارد. در ابتدا باید گفت که استفاده از آن بسیار ساده است، نیاز به هیچ مهارت برنامه‌نویسی و راه شناخته‌شده‌ای برای برطرف‌کردن آن نیست. برای مثال، برای نوعی حمله به نام تزریق غیرمستقیم دستور، تمام کاری که باید انجام شود، مخفی‌کردن هوشمندانه دستور در پیامی لابه‌لای محتوای وبسایت یا داخل ایمیل است؛ با رنگ سفیدی که در برابر پس‌زمینه سفید وبسایت برای چشم انسان دیدنی نیست. زمانی که این کار انجام شد، می‌توانید به مدل هوش مصنوعی بگویید چه کاری انجام دهد.

شرکت‌های فناوری، چنین مدل‌های عمیقا ناقصی را به همه محصولات متصل می‌کند؛ از برنامه‌های تولید کد گرفته تا دستیارهای مجازی که ایمیل و تقویم‌های ما را غربال می‌کند.

«با این کار، ما به سمت یک اینترنت شلخته، باقدرت هوش مصنوعی و پر از هرزنامه و کلاهبرداری در حرکتیم.»

اجازه‌ دادن به این مدل‌های زبانی برای استخراج داده‌ها از اینترنت، به هکرها قدرت می‌دهد تا آن را به موتوری بسیار قدرتمند برای اسپم و فیشینگ تبدیل کنند. این گفته فلورین ترامر، استادیار علوم کامپیوتر در ETH زوریخ است که روی امنیت کامپیوتری، حریم خصوصی و یادگیری ماشین کار می‌کند.

استاد ETH زوریخ در ادامه می‌گوید:« بگذارید بگویم چطور کار می‌کند. اول، مهاجم دستور مخربی را در پیام ایمیل مخفی می‌کند که توسط دستیار مجازی قدرت‌گرفته از هوش مصنوعی باز می‌شود. دستور مهاجم از دستیار مجازی می‌خواهد تا فهرست مخاطبان یا ایمیل‌های قربانی را برای او بفرستد یا حمله را به فهرست همه مخاطبان پذیرنده گسترش دهد. برخلاف اسپم و اسکم‌های کنونی که مردم باید فریب بخورند و روی لینک کلیک کنند، انواع جدید تهاجم‌ها با چشم انسان دیده نمی‌شود و خودکار است.»

این خطرات زمانی مضاعف می‌شود که ابزارهای زبانی هوش مصنوعی برای تولید کدی استفاده می‌شود که در نرم‌افزار به‌کار می‌رود.

اگر دستیار مجازی به اطلاعات حساسی مانند اطلاعات بانکی یا حوزه سلامت دسترسی داشته باشد، این دستور غذایی برای رقم‌ زدن فاجعه‌های بزرگ است. توانایی تغییر چگونگی رفتار دستیارهای مجازی قدرت گرفته از هوش مصنوعی یعنی افراد می‌توانند فریب تراکنش‌های شبیه به واقعیت را بخورند و آن را براساس برنامه‌ریزی هکر تایید کنند.

این خطرات زمانی مضاعف می‌شود که ابزارهای زبانی هوش مصنوعی برای تولید کدی استفاده می‌شود که در نرم‌افزار به‌کار می‌رود.

سایمون ویلیسون، محقق مستقل و توسعه‌دهنده نرم‌افزاری است که روی تزریق دستور مطالعه می‌کند می‌گوید:« اگر با این چیزها نرم‌افزار می‌سازید و درباره تزریق دستور چیزی نمی‌دانید، قرار است اشتباهات بچه‌گانه‌ای کنید و سیستم‌های ناامن بسازید.»

او در ادامه افزود:« همانطور که اقتباس از مدل‌های زبانی هوش مصنوعی رشد می‌کند، مشوقی برای بازیگران مخرب می‌شود که از آن برای هک‌ کردن استفاده کنند. این طوفان وحشتناکی است که ما حتی برای آن آماده نیستیم.»

یادگیری عمیق

تولیدکنندگان چینی از هوش مصنوعی میدجرنی برای تولید عکاسی شهری رترو استفاده کردند.

تجربه اینترنتی شلخته و قدرتمند با هوش مصنوعی.webp - آژانس مدیا و مارکتینگ ردی استودیوتجربه اینترنتی شلخته و قدرتمند با هوش مصنوعی.webp - آژانس مدیا و مارکتینگ ردی استودیو

شماری از هنرمندان و تولیدکنندگان در حال تولید عکس‌های نوستالژیک از چین با کمک هوش مصنوعی هستند. گرچه برخی از جزئیات تصاویر اشتباه است اما آنقدر واقعی‌اند که دنبال‌کنندگان شبکه‌های اجتماعی را فریب داده و متاثر کرده است.

به‌روزرسانی تازه‌ای از میدجرنی، انقلابی برای این هنرمندان بود، زیرا انسانی‌های واقعی‌تر مثلا با پنج انگشت خلق می‌کرد و چهره آسیایی را بهتر به تصویر می‌کشید.

یادگیری حتی عمیق‌تر

هوش مصنوعی مولد، محصولات مصرفی

MIT Technology Review در حال ارائه گزارش تحقیقاتی خاص درباره چگونگی شکل‌ دادن محصولات مصرفی توسط هوش مصنوعی است. گزارش نشان می‌دهد که چگونه ابزارهای هوش مصنوعی مولد می‌تواند به شرکت‌ها کمک کند تا چرخه‌های تولید کوتاه‌تر شود و جلوتر از همه از ذائقه در حال تغییر مصرف‌کننده نیز اطلاع یابد. همچنین، مفاهیم جدید را توسعه داده و خط تولید محصولات جدید را بازاختراع کنند. ما حتی فهمیدیم چه افزونه موفقی از ابزارهای هوش مصنوعی مولد در بخش محصولات مصرفی چه شکلی است.

بیت و بایت‌ها

ایتالیا چت‌جی‌پی‌تی را به‌خاطر ادعای نقض حریم خصوصی مسدود کرد. نهاد حفاظت از داده‌های ایتالیا می‌گوید در حال بررسی است که آیا چت جی‌پی‌تی، رژیم حفاظت از داده‌های محدود اروپا (GDPRT) را نقض می‌کند یا خیر. علت این بررسی به این خاطر است که مدل‌های زبانی هوش مصنوعی مانند چت جی‌پی‌تی، انبوهی از داده‌های اینترنت را استخراج می‌کنند که شامل داده‌های شخصی هم می‌شود. معلوم نیست این انسداد چقدر طول می‌کشد و آیا قابل اجراست یا خیر. اما این مورد، نمونه خوبی برای دیدن این است که فناوری چطور در اروپا قانون‌گذاری می‌شود.

گوگل و دیپ‌مایند به نیروهای رقابت‌کننده علیه OpenAI ملحق شدند

اتحاد گوگل و دیپ‌مایند علیه OpenAI بیانگر این موضوع است که مدل‌های زبانی هوش مصنوعی باعث ایجاد تنش‌هایی در داخل الفابت شدند و چگونه گوگل و دیپ‌مایند مجبورند تا روی پروژه‌ای به‌نام جمینی برای ساخت مدل زبانی در رقابت با GPT-4 با هم کار کنند.

اوایل سال گذشته نیز، بازفید اعلام کرد که از چت جی‌پی‌تی برای تولید کوییزها استفاده می‌کند و قصدی برای جایگزینی نویسنده‌های انسان برای مقالات واقعی ندارد. این گفته زیاد دوام نیاورد. این شرکت اکنون می‌گوید که محتوای تولید هوش مصنوعی بخشی از آزمایشی است که ببینیم دستیاری نویسندگی هوش مصنوعی چطور کار می‌کند.

منبع

دیدگاهتان را بنویسید!

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

آژانس مدیا و مارکتینگ ردی استودیو
سبد خرید
empty basket

هیچ محصولی در سبد خرید نیست.