استودیو جیبلی در برابر هوش مصنوعی: سکوت رسمی و خشم طرفداران در فضای مجازی

استودیو جیبلی در برابر هوش مصنوعی: سکوت رسمی و خشم طرفداران در فضای مجازی

در حالی که استودیو جیبلی هنوز به هجوم تصاویر تولید شده توسط هوش مصنوعی که به تقلید از سبک انیمیشن‌های آن می‌پردازند واکنشی نشان نداده است، طرفداران این استودیو در ساب‌ردیت خود به شدت با این موضوع برخورد کرده‌اند.

به گزارش تک‌کرانچ هفته گذشته، با معرفی قابلیت تولید تصویر در ChatGPT توسط OpenAI، شبکه‌های اجتماعی مملو از تصاویری شد که کاربران با استفاده از هوش مصنوعی و با الهام از انیمه‌های استودیو جیبلی خلق کرده بودند. بسیاری از طرفداران امیدوار بودند که هایائو میازاکی، مغز متفکر استودیو جیبلی، موضعی در این باره اتخاذ کند، اما این انیماتور 84 ساله سکوت اختیار کرده است. با این حال، در ساب‌ردیت طرفداران جیبلی، کاربران با قدرت در حال اجرای ممنوعیت دیرینه‌ای علیه آثار هنری تولید شده توسط هوش مصنوعی هستند.

یکی از مدیران این ساب‌ردیت هفته گذشته در پستی اعلام کرد: «به تازگی متوجه ده‌ها پست با مضمون “همین حالا هوش مصنوعی را ممنوع کنید” شده‌ام که ظاهراً ناشی از هجوم هنر هوش مصنوعی با سبک جیبلی در سایر سایت‌ها است. ما هنر هوش مصنوعی را مجاز نمی‌دانیم. در واقع، از زمانی که این فناوری به وجود آمده، آن را ممنوع کرده‌ایم.»

این طرفداران، کپی‌های تولید شده توسط هوش مصنوعی را به عنوان ادای احترام به این هنرمند افسانه‌ای تلقی نمی‌کنند. بلکه، این مدل‌های هوش مصنوعی مولد بر اساس تصاویر دارای حق تکثیر هنرمندانی مانند میازاکی آموزش داده شده‌اند، هنرمندانی که هرگز به OpenAI یا هیچ یک از رقبای آن اجازه استفاده از آثارشان را به این شکل نداده‌اند.

این مسئله تنها به استودیو جیبلی محدود نمی‌شود و سایر هنرمندان و نویسندگان را نیز تحت تأثیر قرار داده است. به عنوان مثال، نیویورک تایمز و سایر ناشران از OpenAI شکایت کرده‌اند و مدعی شده‌اند که این شرکت از مطالب دارای حق تکثیر آن‌ها برای آموزش مدل‌های خود بدون پرداخت هزینه یا کسب رضایت استفاده کرده است. شکایات مشابهی نیز علیه متا و میدجورنی تنظیم شده است.

موضوع جیبلی به طور ویژه‌ای احساسات طرفداران را جریحه‌دار کرده است، زیرا هایائو میازاکی، خالق آثار مشهور این استودیو، بارها انزجار خود را از آثار هنری تولید شده توسط هوش مصنوعی ابراز کرده است.

میازاکی در ویدئویی مستند مربوط به سال 2016 که در آن انیمیشن سه بعدی تولید شده توسط هوش مصنوعی به او نشان داده می‌شد، گفت: «من نمی‌توانم این چیزها را تماشا کنم و آن‌ها را جالب بیابم. هر کسی که این چیزها را خلق می‌کند، اصلاً نمی‌داند درد چیست. من کاملاً منزجرم.»

علاوه بر سبک جیبلی، افراد تصاویری را به سبک فیلم‌های پیکسار و نقاشی‌های دکتر سوس نیز تولید کرده‌اند. حتی حساب کاربری کاخ سفید در شبکه اجتماعی ایکس (توییتر سابق) نیز تصویری به سبک جیبلی منتشر کرد که در آن به شکلی ناشیانه زنی را که در حال دستبند زده شدن توسط ماموران مهاجرت بود مسخره می‌کرد.

با گسترش بیشتر تصاویر “جیبلی‌وار” در سطح اینترنت، طرفداران این انیماتور افسانه‌ای 84 ساله، اظهارات قبلی او را بازنشر کردند تا دیگران را از تقلید آثارش منصرف کنند، اما به نظر می‌رسد که کار از کار گذشته است. البته، همه این تصاویر دقیقاً به سبک جیبلی نیستند، اما محبوبیت این تصاویر ظرفیت شرکت OpenAI را تحت فشار قرار داده است.

برد لایتکپ، مدیر ارشد عملیات OpenAI، اعلام کرده است که بیش از 130 میلیون کاربر با استفاده از قابلیت جدید ChatGPT بیش از 700 میلیون تصویر تولید کرده‌اند. او در این باره نوشت: «گستره خلاقیت بصری بسیار الهام‌بخش بوده است.»

با توجه به سابقه اظهارات هایائو میازاکی، موضع‌گیری تند طرفداران در ساب‌ردیت چندان دور از انتظار نیست. میازاکی پیش از این نیز در سال‌های گذشته به شدت از فناوری‌های نوین در عرصه انیمیشن، به ویژه هوش مصنوعی، انتقاد کرده و آن را “توهین به زندگی” و فاقد روح انسانی دانسته بود. او معتقد است که هنر واقعی باید از احساسات و تجربیات انسانی نشأت بگیرد و هوش مصنوعی قادر به درک و بازآفرینی این عمق نیست.

علاوه بر این، مسئله استفاده از آثار دارای حق تکثیر برای آموزش مدل‌های هوش مصنوعی، یک چالش حقوقی رو به رشد در صنایع مختلف خلاقانه است. شکایت نیویورک تایمز از OpenAI تنها یکی از موارد متعدد در این زمینه است و نشان می‌دهد که هنرمندان و صاحبان حقوق معنوی به طور فزاینده‌ای نگران سوءاستفاده از آثارشان در توسعه فناوری‌های هوش مصنوعی هستند. سکوت رسمی استودیو جیبلی در حال حاضر ممکن است ناشی از بررسی‌های حقوقی یا اتخاذ یک استراتژی مشخص در قبال این موضوع باشد. با این حال، واکنش قاطع طرفداران نشان می‌دهد که آن‌ها به شدت از میراث هنری این استودیو و خالقان آن محافظت می‌کنند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا