مشکل «توهم» ChatGPT

مشکل «توهم» ChatGPT با شکایت در اتحادیه اروپا مواجه شد

در جدیدترین اخبار منتشر شده در صنعت فناوری مطلع شدیم که به دلیل مشکل «توهم» ChatGPT و تناقض آن با قوانین اتحادیه اروپا، از شرکت OpenAI در این اتحادیه شکایت شده است.

براساس گزارش جدید متنشر شده توسط رسانه Techcrunch مطلع شدیم که شرکت OpenAI با شکایت دیگری در خصوص حفظ حریم خصوصی در اتحادیه اروپا مواجه است. این مورد، که توسط گروه حقوقی اتریشی Noyb به نمایندگی از یک شاکی ثبت شده است، ناتوانی چت‌بات هوش مصنوعی ChatGPT این شرکت را در تصحیح اطلاعات نادرست که در مورد افراد ایجاد می‌کند، هدف قرار می‌دهد.

 این شاکی ناشناس که در پرونده نامی از آن برده نشده و صرفاً به آن «شخصیت عمومی» اطلاق شده، مدعی است که این چت‎‌بات تاریخ تولد او را اشتباه ذکر می‌کند. همچنین ظاهراً OpenAI درخواست این فرد برای تصحیح یا پاک‌کردن داده‌های اشتباه را رد کرده و گفته است که این امر امکان‌پذیر نیست.

ابزارهای هوش مصنوعی مولد با تمام مزایای منحصربه‌فرد خود، گاهی آشکارا اطلاعات اشتباهی به کاربر می‌دهند و به اصطلاح دچار توهم (Hallucination) می‌شوند. این مشکل در تضاد با «مقررات عمومی حفاظت از داده‌‌ها» یا GDPR اتحادیه اروپا است.

جریمه‌های عدم رعایت قوانین GDPR می‌تواند تا ۴ درصد گردش مالی سالانه جهانی برسد. مهمتر از آن برای یک غول فناوری مانند OpenAI، تنظیم‌کننده‌های حفاظت از داده‌ها می‌توانند تغییراتی در نحوه پردازش اطلاعات این شرکت اعمال کنند، بنابراین اجرای GDPR می‌تواند نحوه عملکرد ابزارهای هوش مصنوعی مولد در اتحادیه اروپا را تغییر دهد. در این راستا OpenAI قبلاً پس از مداخله زودهنگام توسط مقامات سازمان حفاظت از داده‌های ایتالیا، مجبور به ایجاد تغییراتی در هوش مصنوعی خود شده بود، که برای مدت کوتاهی ChatGPT را در سال ۲۰۲۳ غیرفعال کرد.

بر اساس GDPR، افراد در اتحادیه اروپا دارای مجموعه ای از حقوق هستند که به اطلاعات مربوط به آنها پیوست می شود، از جمله حق تصحیح داده های اشتباه. بنابراین گروه حقوقی Noyb ادعا می‌کند که OpenAI در رابطه با خروجی چت‌بات خود از این تعهد پیروی نمی‌کند. همچنین بیان کرد که این شرکت درخواست شاکی را برای اصلاح تاریخ تولد نادرست، رد کرده و در پاسخ به این که اصلاح آن اظهار داشت که از نظر فنی غیرممکن است.

در عوض پیشنهاد فیلتر کردن یا مسدود کردن داده‌ها را در برخی از درخواست‌ها، مانند تغییر نام شاکی داده است. سیاست حفظ حریم خصوصی OpenAI بیان می‌کند که کاربرانی که متوجه می‌شوند چت‌بات هوش مصنوعی «اطلاعات واقعی نادرست درباره شما» ایجاد کرده است، می‌توانند «درخواست اصلاح» را از طریق privacy.openai.com یا از طریق ایمیل dsar@openai.com ارسال کنند. با این حال، هشدار می‌دهد که «با توجه به پیچیدگی فنی نحوه کار مدل های ما، ممکن است نتوانیم در تمامی موارد نادرستی را اصلاح کنیم».

مارتجه د گراف، وکیل گروه حقوقی Noyb، در بیانیه‌ای درباره این شکایت اظهار داشت که «وقتی صحبت از اطلاعات نادرست در مورد افراد می‌شود، می‌تواند عواقب جدی داشته باشد. واضح است که شرکت‌ها در حال حاضر نمی‌توانند چت‌بات‌هایی مانند ChatGPT را در هنگام پردازش داده‌های افراد با قوانین اتحادیه اروپا مطابقت دهند. اگر یک سیستم نتواند نتایج دقیق و شفاف تولید کند، نمی‌توان از آن برای تولید داده‌های مربوط به افراد استفاده کرد. این فناوری باید از الزامات قانونی پیروی کند، نه برعکس».

این شرکت گفت که از DPA اتریش می‌خواهد شکایت مربوط به پردازش داده‌های OpenAI را بررسی کند و همچنین می‌خواهد که برای اطمینان از رعایت این قوانین در آینده، جریمه‌ای اعمال کند اما اضافه کرد که احتمالا این پرونده از طریق همکاری اتحادیه اروپا رسیدگی خواهد شد.

شرکت OpenAI با چند شکایت مشابه در لهستان نیز مواجه بوده است. در سال ۲۰۲۳، مقامات محلی حفاظت از داده‌ها، تحقیقاتی را درباره ChatGPT پس از شکایت یک محقق حریم خصوصی و امنیت آغاز کردند. این محقق متوجه شده بود که قادر به تصحیح اطلاعات نادرست درباره خود نیست. با ما همراه باشید در صورت انتشار اخبار بیشتر در رابطه با این موضوع بلافاصله آن را با شما به اشتراک می‌گذاریم. همچنین شما نیز می‌توانید نظرات و پیش‌بینی‌های خود را درباره مشکل «توهم» ChatGPT و نتیجه این شکایت با ما در میان بگذارید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا