در جدیدترین اخبار منتشر شده در صنعت فناوری مطلع شدیم که به دلیل مشکل «توهم» ChatGPT و تناقض آن با قوانین اتحادیه اروپا، از شرکت OpenAI در این اتحادیه شکایت شده است.
براساس گزارش جدید متنشر شده توسط رسانه Techcrunch مطلع شدیم که شرکت OpenAI با شکایت دیگری در خصوص حفظ حریم خصوصی در اتحادیه اروپا مواجه است. این مورد، که توسط گروه حقوقی اتریشی Noyb به نمایندگی از یک شاکی ثبت شده است، ناتوانی چتبات هوش مصنوعی ChatGPT این شرکت را در تصحیح اطلاعات نادرست که در مورد افراد ایجاد میکند، هدف قرار میدهد.
این شاکی ناشناس که در پرونده نامی از آن برده نشده و صرفاً به آن «شخصیت عمومی» اطلاق شده، مدعی است که این چتبات تاریخ تولد او را اشتباه ذکر میکند. همچنین ظاهراً OpenAI درخواست این فرد برای تصحیح یا پاککردن دادههای اشتباه را رد کرده و گفته است که این امر امکانپذیر نیست.
ابزارهای هوش مصنوعی مولد با تمام مزایای منحصربهفرد خود، گاهی آشکارا اطلاعات اشتباهی به کاربر میدهند و به اصطلاح دچار توهم (Hallucination) میشوند. این مشکل در تضاد با «مقررات عمومی حفاظت از دادهها» یا GDPR اتحادیه اروپا است.
جریمههای عدم رعایت قوانین GDPR میتواند تا ۴ درصد گردش مالی سالانه جهانی برسد. مهمتر از آن برای یک غول فناوری مانند OpenAI، تنظیمکنندههای حفاظت از دادهها میتوانند تغییراتی در نحوه پردازش اطلاعات این شرکت اعمال کنند، بنابراین اجرای GDPR میتواند نحوه عملکرد ابزارهای هوش مصنوعی مولد در اتحادیه اروپا را تغییر دهد. در این راستا OpenAI قبلاً پس از مداخله زودهنگام توسط مقامات سازمان حفاظت از دادههای ایتالیا، مجبور به ایجاد تغییراتی در هوش مصنوعی خود شده بود، که برای مدت کوتاهی ChatGPT را در سال ۲۰۲۳ غیرفعال کرد.
بر اساس GDPR، افراد در اتحادیه اروپا دارای مجموعه ای از حقوق هستند که به اطلاعات مربوط به آنها پیوست می شود، از جمله حق تصحیح داده های اشتباه. بنابراین گروه حقوقی Noyb ادعا میکند که OpenAI در رابطه با خروجی چتبات خود از این تعهد پیروی نمیکند. همچنین بیان کرد که این شرکت درخواست شاکی را برای اصلاح تاریخ تولد نادرست، رد کرده و در پاسخ به این که اصلاح آن اظهار داشت که از نظر فنی غیرممکن است.
در عوض پیشنهاد فیلتر کردن یا مسدود کردن دادهها را در برخی از درخواستها، مانند تغییر نام شاکی داده است. سیاست حفظ حریم خصوصی OpenAI بیان میکند که کاربرانی که متوجه میشوند چتبات هوش مصنوعی «اطلاعات واقعی نادرست درباره شما» ایجاد کرده است، میتوانند «درخواست اصلاح» را از طریق privacy.openai.com یا از طریق ایمیل dsar@openai.com ارسال کنند. با این حال، هشدار میدهد که «با توجه به پیچیدگی فنی نحوه کار مدل های ما، ممکن است نتوانیم در تمامی موارد نادرستی را اصلاح کنیم».
مارتجه د گراف، وکیل گروه حقوقی Noyb، در بیانیهای درباره این شکایت اظهار داشت که «وقتی صحبت از اطلاعات نادرست در مورد افراد میشود، میتواند عواقب جدی داشته باشد. واضح است که شرکتها در حال حاضر نمیتوانند چتباتهایی مانند ChatGPT را در هنگام پردازش دادههای افراد با قوانین اتحادیه اروپا مطابقت دهند. اگر یک سیستم نتواند نتایج دقیق و شفاف تولید کند، نمیتوان از آن برای تولید دادههای مربوط به افراد استفاده کرد. این فناوری باید از الزامات قانونی پیروی کند، نه برعکس».
این شرکت گفت که از DPA اتریش میخواهد شکایت مربوط به پردازش دادههای OpenAI را بررسی کند و همچنین میخواهد که برای اطمینان از رعایت این قوانین در آینده، جریمهای اعمال کند اما اضافه کرد که احتمالا این پرونده از طریق همکاری اتحادیه اروپا رسیدگی خواهد شد.
شرکت OpenAI با چند شکایت مشابه در لهستان نیز مواجه بوده است. در سال ۲۰۲۳، مقامات محلی حفاظت از دادهها، تحقیقاتی را درباره ChatGPT پس از شکایت یک محقق حریم خصوصی و امنیت آغاز کردند. این محقق متوجه شده بود که قادر به تصحیح اطلاعات نادرست درباره خود نیست. با ما همراه باشید در صورت انتشار اخبار بیشتر در رابطه با این موضوع بلافاصله آن را با شما به اشتراک میگذاریم. همچنین شما نیز میتوانید نظرات و پیشبینیهای خود را درباره مشکل «توهم» ChatGPT و نتیجه این شکایت با ما در میان بگذارید.