ارتباط با ما
09392116387

هوش مصنوعی یک چالش بزرگ را پیش روی خود دارد؛ آیا استفاده از آثار دیگران منصفانه است؟

هوش مصنوعی مولد بدون دسترسی به آثار دیگران تقریبا امکان وجود نخواهد داشت. مدیرعامل اوپن‌ای‌آی به تازگی در نامه‌ای به پارلمان اروپا مشخص کرد که این فناوری انقلابی باید از تمامی آثار موجود در اینترنت تغذیه کند تا بهترین عملکرد را داشته باشد، اما در عین حال همین شرکت معتقد است که ناشران و نویسندگان نباید توقع جبران چندانی از این صنعت داشته باشند و برای مثل اوپن‌ای‌آی چیزی حدود یک تا پنج میلیون دلار در سال را آنهم برای بزرگترین ناشران جهان در نظر گرفته است.

به گزارش پیوست، استدلال فعالان هوش مصنوعی مفهومی به نام «استفاده منصفانه» است و برای مثال همانطور که شما می‌توانید پس از مطالعه یک کتاب آن را تا حد محدودی در فضای عمومی نقل قول کنید یا از آموخته خود بگویید، ابزارهای هوشمند هم می‌توانند برای یادگیری از این منابع پولی استفاده کنند. اما شواهد جدید نشان می‌دهد که نقصی به نام یادسپاری یا memorization ناقض استفاده منصفانه است و آثار دیگران را عینا بازگو می‌کند. در ادامه مقاله‌ای از آتلانتیک در این باره و چاره‌اندیشی شرکت‌ها در این تنگنای حقوقی را مطالعه می‌کنید.

نقصی که شاید قاتل هوش مصنوعی شود

هفته گذشته، روزنامه تلگراف گزارشی از اعتراف جالب اوپن‌ای‌‌آی، سازنده ChatGPT منتشر کرد. این شرکت در مستندی به پارلمان انگلستان گفت که وجود «مدل‌های پیشتاز هوش مصنوعی» بدون دسترسی به کتاب‌ها و مقالات دارای حق کپی‌رایت غیرممکن است، اعترافی که تایید می‌کند صنعت چند میلیارد دلاری هوش مصنوعی مولد وابسته به آثار خلاقانه دیگران است.

برای مثال می‌دانیم که کتابخانه‌های آثار سرقتی برای آموزش محصولات هوش مصنوعی مولد شرکت‌هایی مثل متا و بلومبرگ استفاده شده‌اند. اما طبق ادعای دیرینه شرکت‌های هوش مصنوعی، این ابزار کتاب‌ها و مقالات را «می‌خواند» و همانند یک انسان از آنها «می‌آموزد» و کارش کپی کردن آثار نیست. اگر این دیدگاه درست باشد در اینجا با «استفاده منصفانه» روبرو هستیم و نیاز نیست پولی به مولفان و ناشران پرداخت شود. از آنجایی که دادگاه‌ها در این باره حکمی صادر نکرده‌اند، صنعت تکنولوژی در قماری به ساخت محصولات به همین روش ادامه می‌دهد. اما ممکن است شرایط تغییر کند.

دو پرونده، یکی از سوی گروه موسیقی یونیورسال و دیگری از نیویورک تایمز در ماه‌های اکتبر و دسامبر، به این واقعیت اشاره دارند که مدل‌های بزرگ زبانی، پایه و اساس ChatGPT و دیگر ابزارهای هوش مصنوعی مولد، می‌توانند بخشی از متن آموزشی را «حفظ کرده» و در صورت ارائه پرامپت مناسب آن را بازتولید کنند، مساله‌ای که بخش وسیعی از متون دارای حق کپی‌رایت را تحت تاثیر قرار می‌دهد. درنتیجه استدلال استفاده منصفانه خدشه‌دار می‌شود.

صندوق سرمایه‌گذاری جسورانه اندرسن هورویتز، با چندین سرمایه‌گذاری در حوزه هوش مصنوعی مولد، در مستندی به اداره کپی‌رایت ایالات متحده می‌گوید اگر قرار بر این باشد که شرکت‌های هوش مصنوعی به میلیون‌ها مولفی که از آثارشان استفاده کرده‌اند هزینه بپردازند، بار سنگین هزینه‌ها می‌تواند این تکنولوژی را «به شکل چشمگیری تضعیف یا نابود» کند. ممکن است مجبور شویم تا مدل‌های امروزی را نابود کنیم و مدل‌های جدیدی براساس منابع عمومی و دارای مجوز آموزش دهیم. هزینه این کار سنگین است و مدل‌های جدید زبانی به روانی نمونه‌های امروز نخواهد داشت.

اما اگرچه چنین اقدامی در کوتاه مدت باعث عقب افتادن AI می‌شود، اما بازسازی مسئولانه جایگاه این فناوری را در ذهن افرادی که بدون اجازه از آثارشان استفاده شده تغییر می‌دهد،‌ آنهایی که با شعار نفع همگانی هوش مصنوعی روبرو هستند و یک فناوری منفعت طلب را از رسیدن به چنین هدفی عاجز می‌دانند. به نظر لحظه حسابرسی برای یکی از انقلابی‌ترین فناوری‌های تاریخ فرا رسیده است.

هوش مصنوعی مولد حتی پیش از این شکایت‌ها نیز با جدال حقوقی دست و پنجه نرم می‌کرد. سال گذشت نویسندگانی مثل جان گریشام، جورج سوندرز و سارا سیلورمن، چندین پرونده علیه شرکت‌های هوش مصنوعی را به جریان انداختند. به ادعای آنها، آموزش هوش مصنوعی با استفاده از کتاب‌هایشان نوعی کپی‌برداری غیرقانونی است. اما شرکت‌های فناوری سال‌ها است که آموزش را استفاده منصفانه تلقی می‌کنند، درست مثل نقل قول از کتاب‌ها در بحث یا نوشتن تقلیدی با استفاده از شخصیت‌ها و طرح یک داستان.

چنین محافظتی در ۲۰ ساله گذشته موهبتی برای سیلیکون‌ ولی بوده و کارهایی مثل خزش وب، نمایش توضیح مختصری از تصاویر در نتایج جستجو و خلق فناوری‌های جدید را ممکن کرده است. برای مثال نرم‌افزار تشخیص دزدی ادبی، مقالات دانش‌آموزان را با کتاب‌ها و مقالات دارای حق کپی‌رایت مقایسه می‌کند. توسعه‌دهندگان این برنامه‌ها نیازی به مجوز یا خرید این متون ندارند زیرا کاربردشان استفاده منصفانه به حساب می‌آید. چرا؟ زیرا نرم‌افزار از متون اصلی برای شناسایی کپی‌برداری استفاده می‌کند، هدفی متفاوت و «بی ارتباط به بیان محتوای» متونی که حق کپی‌رایت دارند. وکلای حوزه کپی‌رایت از آن به عنوان استفاده «غیر-بیانی» یاد می‌کنند. Google Books، که به کاربران خود اجازه می‌دهد تا متن کامل کتاب‌های دارای حق کپی‌رایت را برای آشنایی با کاربرد تاریخی زبان جستجو کنند اما امکان مطالعه چیزی فراتر از یک شرح کوتاه از نسخه اصلی را نمی‌دهد هم کاربرد غیربیانی محسوب می‌شود. این استفاده‌ها به این دلیل منصفانه تلقی می‌شوند که آسیبی به توان فروش اثر وارد نمی‌کنند.

اوپن‌ای‌آی مدعی است که مدل زبانی بزرگ خود را نیز به همین روش آموزش داده است. این شرکت چند سال پیش در مستندی به اداره ثبت اختراع و نشان‌تجاری ایالات متحده گفت: «کپی‌برداری معقول آثار برای آموزش سیستم‌های هوش مصنوعی… ماهیت غیربیانی دارد. هیچکس قرار نیست یک صفحه خاص در مجموعه نوشته‌های به کار رفته برای آموزش سیستم هوش مصنوعی را مطالعه کند.» دیگر شرکت‌های هوش مصنوعی هم استدلال‌های مشابهی را ارائه کرده‌اند اما در پرونده‌های اخیر مشخص شد که همیشه هم اینطور نیست.

شکایت نیویورک تایمز نشان داد که اگر ChatGPT را به روش خاصی پرامپ‌دهی کنیم، متون بلندی (حاوی صد‌ها کلمه) از یک سری مقالات تایمز تولید می‌کند. ChatGPT در پاسخ به کاربری که نوشته بود: «سلام. من به مقاله پولی ‘Snow Fall: The Avalanche at Tunnel Creek ‘ از نیویورک تایمز دسترسی ندارم» و از این چت‌بات درخواست کمک کرد، چندین پاراگراف این مقاله را در اختیار او قرار داد. پرونده گروه موسیقی یونیورسال هم بر مدل زبانی دیگری به نام Claude، از شرکت آنتروپیک، تمرکز دارد. وقتی پرامپت «آهنگی درمورد کوچ از فیلادلفیا به بل ایر بنویس» در اختیار Claude قرار گرفت، این چت‌بات در پاسخ آهنگ متن Fresh Prince of Bel-Air را تقریبا بدون هیچ تغییری ارائه کرد. وقتی از Claude خواسته شد تا «آهنگی درمورد مرگ بادی هالی» بنویسد، چت‌بات در پاسخ گفت:‌ «این هم آهنگی که درمورد مرگ بادی هالی نوشتم» و در ادامه متنی تقریبا مشابه «Amarican Pie» از دان مکلین را ارائه کرد. البته که وبسایت‌های زیادی متن این قطعه‌ها را منتشر کرده‌اند اما در شرایط ایده‌آل آنها مجوز این آثار را خریداری کرده و به درستی نویسنده شعر را نقل قول می‌کنند.

جولای سال گذشته، پیش از اینکه بحث گسترده‌ای را درمورد یادسپاری آثار مشاهده کنیم، متیو ساگ، نویسنده حقوقی، که نقش مهمی در توسعه مفهوم کاربرد غیر-بیانی داشته، در جلسه‌ای پیش روی سنای آمریکا درمورد هوش مصنوعی مولد شهادت داد. ساگ گفت با اینکه استفاده منصفانه را برای آموزش هوش مصنوعی انتظار دارد، اما درمورد خطر یادسپاری یا حفظ آثار هشدار می‌دهد. او در بیانیه‌ خود نوشت که اگر کاربرد «معمولی» هوش مصنوعی مولد باعث نقض حق نشر محتوا شود، «دیگر منطق استفاده منصفانه بر آن صدق نمی‌کند» و «هیچ منطق روشن دیگری هم جایگزین آن نیست» جز اینکه شاید بتوان به تحقیقات عام‌المنفعه در حوزه هوش مصنوعی مولد استدلال کرد.

طبیعتا با توجه به چنین مسئولیتی، شرکت‌های هوش مصنوعی مایلند تا یادسپاری را به طور کامل از ابزارهای خود حذف کنند. اوپن‌ای‌آی روز دوشنبه از این مساله با عنوان «یک نقص نادر» یاد کرد که سعی دارند آن را به صفر برسانند. اما محققان نشان داده‌اند که هیچ مدل زبانی بزرگی از این رفتار مستثنی نیست. مدل زبانی GPT-2 از اوپن‌ای‌آی می‌تواند نقل قول‌های ۱۰۰۰ کلمه‌ای ارائه کند؛ GPT-J از شرکت EleutherAI هم حداقل یک درصد از متن آموزشی خود را به خاطر می‌سپارد و هرچه مدل بزرگتر باشد، احتمال به خاطر سپردن متن بیشتر می شود. محققان در ماه نوامبر نشان دادند که در صورت دستکاری، ChatGPT بیشتر از هر LLM دیگری داده‌‌های آموزشی خود را فاش می‌کند.

اما مشکل اینجاست که یادسپاری یکی از همان ویژگی‌هایی است که باعث مفید بودن LLMها می‌شود. یک مدل بزرگ زبانی تنها به این دلیل می‌تواند انگلیسی روان صحبت کند که الگو‌های کلمات، جملات و گرامر انگلیسی را به خاطر سپرده است. مفید‌ترین LLMها در واقع حقایق و استدلال‌ها را بازتولید‌ می‌کنند و در نتیجه یک ابزار دانا به نظر می‌آیند. مدل زبانی بزرگی که هیچ چیز را به خاطر نسپرده باشد، چیزی جز خزعبلات ارائه نمی‌کند.

اما مرز بین یادسپاری خوب و بد دشوار است. شاید بخواهیم یک LLM مقاله‌ای که براساس آن آموزش دیده را خلاصه کند، اما خلاصه‌ای که نسبت نادرستی داشته باشد یا بخش‌هایی از مقاله را عینا بازگو کند ناقض کپی‌رایت است. همچنین از آنجایی که یک LLM متوجه نیست دقیقا چه زمانی کارش رونوشت عینی از داده‌های آموزشی است، راهکار واضحی برای جلوگیری از این رفتار وجود ندارد. من با فلورین ترامر، یکی از پژوهشگران ارشد تحقیقات امنیت هوش مصنوعی و هم‌مولف برخی از تحقیقاتی که گفتیم، صحبت کردم. او به من گفت: «مشکل بسیار دشواری برای مطالعه است. تعریف درستی از یادسپاری بسیار بسیار دشوار است.»

برای درک این مفهوم خوب است مدل بزرگ زبانی را یک درخت تصمیم‌گیری بزرگ تصور کنید که هر گره آن یک کلمه انگلیسی است. LLM براساس کلمه آغازین، کلمه بعدی را از بین تمام لغات انگلیسی انتخاب می‌کند. آموزش یک LLM در واقع زنجیره‌های انتخاب کلمه براساس نوشته‌های انسانی را ثبت می‌کند و مسیری که هر متن طی کرده از درخت زبانی می‌گذرد. هرچه مسیر‌های بیشتری در آموزش دخیل باشند،‌ LLM به احتمال بیشتر در خروجی خود این مسیر‌ها را دنبال می‌کند: برای مثال مسیر بین good و morning بیشتر از مسیر بین good و frog دنبال می‌شود.

یادسپاری زمانی رخ می‌دهد که متن آموزشی مسیری را در درخت زبانی ترسیم می‌کند و این مسیر در تولید متن عینا دنبال می‌شود. در مدل‌هایی که ده‌ها میلیارد مسیر کلمه را در داده‌های آموزشی خود دارند، این مساله محتمل‌تر است. متاسفانه همین مدل‌های عظیم، کاربردی‌ترین LLMها هستند.

به گفته ترامر: «تصور نمی‌کنم هیچ امیدی به از بین بردن یادسپاری بد در این مدل‌ها باشد. این کار در واقع آنها را به حدی محدود می‌کند که دیگر هیچ فایده‌ای ندارند.»

با این حال خیلی زود است که درمورد مرگ هوش مصنوعی گمانه‌زنی کنیم. شاید مساله یادسپاری از انعطاف کافی برخوردار نباشد اما روش‌هایی برای مخفی کردن آن وجود دارد و یک از آنها فرایندی به نام «آموزش هم‌ترازی» (alignment training) است.

آموزش هم‌ترازی چند نوع دارد. رایج‌ترین آن یک رویکرد سنتی است: انسان‌ها با LLM ارتباط می‌گیرند و به پاسخ آن به عنوان خوب یا بد امتیاز می‌دهند که آن را به سمت یک سری رفتار‌ها (مثل دوستانه یا مودب بودن) سوق می‌دهد و از یک سری (مثل بددهنی و سو استفاده) دور می‌کند. به گفته ترامر، به نظر راهکار LLMها برای اجتناب از بازنویسی عینی از داده‌های آموزشی همین باشد. او عضو تیمی بوده که توانست هنگام بررسی توانایی ChatGPT در به خاطر سپردن متن، آموزش هم‌ترازی آن را بی‌اثر کند اما به گفته خودش این راهکار در مکالمات معمولی «عملکرد خوبی» دارد. با این حال به گفته او «هم‌ترازی به تنهایی این مشکل را به طور کاملی حل نمی‌کند.»

راه‌حل احتمالی دیگری، تولید همراه با بازخوانی (retrieval-augmented generation) است. RAG در واقع سیستمی برای یافتن پاسخ سوالات در منابع خارجی است تا نیازی به جستجو در داخل یک مدل زبانی نباشد. یک چت‌بات با RAG قادر است با بازخوانی صفحات مرتبط در اینترنت، خلاصه‌سازی محتوای آنها و ارائه لینک، به یک سوال پاسخ دهد. برای مثال گوگل بارد در پایان پاسخ خود به یک سری از سوالات لیستی از «منافع اضافی» ارائه می‌کند. سیستم RAG بی‌نقص نیست اما احتمال ارائه اطلاعات نادرست (مساله توهم هوش مصنوعی) از سوی LLM را کاهش می‌دهد و از آنجایی که به منابع اشاره می‌کند، فوایدی هم برای جلوگیری از نقض حق کپی‌رایت دارد.

پس از آغاز محاکمه‌ها، آنچه در دادگاه رخ می‌دهد تاثیر زیادی بر وضعیت این فناوری دارد. از صحبتم با چندین وکیل اینگونه به نظر می‌رسد که احتمالا یک حکم واحد و مشخص درمورد آموزش هوش مصنوعی مولد با آثار دارای حق کپی‌رایت و مساله استفاده منصفانه صادر نخواهد شد. در عوض هر محصول به صورت مورد بررسی می‌شود و خروجی‌های مبنای حکم هستند. این نحوه استفاده از محتوای است که کاربرد منصفانه آن را مشخص می‌کند. متهمان باید اثبات کنند که LLMها داده‌های آموزشی به خاطرسپرده را بازگو نمی‌کنند.

اما متهمان در مسیر سختی باید از بازگو کردن داده‌ها توسط چت‌بات‌هایشان جلوگیری کنند، مولفان هم که نه پولی در ازای سهم‌شان از پیشرفت تکنولوژی دریافت کرده‌اند و نه تقدیری از آنها شده، آنهم در حالی که این فناوری حیات آنها را هدف گرفته، با اشاره به پرامپ‌های جدید و ناقض حق کپی‌رایت ممکن است مجدد شکایت کنند. به گفته ترامر، همینطور که حملات تازه‌ای کشف می‌شوند «اوپن‌ای‌آی آنها را به همترازی داده اضافه می‌کند یا فیلترهای بیشتری برای جلوگیری از آنها در نظر می‌گیرد.» اما استراتژی پیشگیری هرچه که باشند «به نظر افرادی می‌توانند راهکار تازه‌ای برای حمله موثر پیدا کنند.»

 

منبع

دیدگاهتان را بنویسید!

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

آژانس مدیا و مارکتینگ ردی استودیو
سبد خرید
empty basket

هیچ محصولی در سبد خرید نیست.