openai-employee-letter

کارمندان OpenAI نسبت به خطرات احتمالی پیشرفت هوش مصنوعی هشدار می‌دهند

تعدادی از کارمندان فعلی و اسبق OpenAI نسبت به خطرات احتمالی پیشرفت هوش مصنوعی هشدار می‌دهند.

بر اساس گزارشی از خبرگزاری مک‌رومرز، تعدادی از کارمندان فعلی و سابق OpenAI و DeepMind گوگل روز گذشته، نامه سرگشاده‌ای نسبت به خطرات پیشرفت هوش مصنوعی و عدم نظارت کافی شرکت‌هایی که بر روی این فناوری کار می‌کنند، به اشتراک گذاشتند.

این کارکنان اذعان دارند که همگام با توسعه هوش مصنوعی با خطرات متعددی روبرو هستیم که می‌توان به پررنگ‌تر شدن نابرابری‌ها و بی‌عدالتی‌های اجتماعی، دستکاری و اطلاعات نادرست و از دست دادن کنترل سیستم‌های هوش مصنوعی مستقل اشاره کرد. در این نامه ذکر شده است که این خطرات می‌تواند به انقراض انسان منجر شود.

شرکت‌های هوش مصنوعی برای توسعه این فناوری اسپانسرهای مالی قدرتمندی دارند که به آنها اجازه کار شبانه‌روزی بر روی این تکنولوژی نوین را می‌دهد؛ به طوری که چندان به اقدامات حفاظتی و سطح‌بندی خطرات مربوط به این فناوری نمی‌پردازند.

تا زمانی که نظارت مؤثر دولت بر این شرکت ها وجود نداشته باشد، کارمندان فعلی و سابق از معدود افرادی هستند که می توانند آنها را در برابر مردم پاسخگو کنند. به علاوه، توافق‌نامه‌های محرمانه گسترده‌ای که در زمینه سیاست انتشار اطلاعات این شرکت‌ها در زمینه هوش مصنوعی وجود دارد، ما را از ابراز نگرانی‌هایمان در این باره باز می‌دارد، هر چند در برخی موارد این شرکت‌ها در حفظ محرمانگی اطلاعات دچار عدم هماهنگی و رسوخ‌هایی از سوی بعضی از کارمندان خود می‌شوند که باعث همین اندک روزنه امید برای بحث و به چالش کشیدن شرکت‌های توسعه دهنده می‌شود.

مواردی که این افشاگران فاش می‌کنند نیز بیشتر بر فعالیت‌های غیرقانونی تمرکز می‌کنند، در حالیکه بسیاری از خطراتی که ما در مورد آنها ابراز نگرانی می‌کنیم، هنوز اندکی دور به نظر می‌رسند.

البته کارمندان شرکت‌های هوش مصنوعی از این کمپانی‌ها می‌خواهند تا برای صحبت در مورد خطرات هوش مصنوعی، از افشاگرهای این حوزه محافظت کرده و امنیت شغلی آنها را به صورت زیر تضمین کنند:

  1. از ایجاد یا اجرای توافقاتی که از انتقاد برای نگرانی‌های مرتبط با خطرهای هوش مصنوعی جلوگیری می‌کند، خودداری کنید.
  2. یک فرآیند ناشناس قابل تأیید برای کارمندان ارائه دهند تا نگرانی‌های مرتبط با خطرات احتمالی هوش مصنوعی را با هیئت مدیره، تنظیم‌کننده‌ها و سازمان‌های مستقل متخصص در این حوزه مطرح کنند.
  3. از فرهنگ انتقاد آشکار و صریح حمایت کنند تا بدین شکل به کارمندان اجازه بروز نگرانی‌های مرتبط با خطرات احتمالی هوش مصنوعی داده شود و به مردم، هیئت‌ مدیره، قانون‌گذاران و… نیز این نگرانی‌ها منعکس شود.
  4. از اخراج یا تنبیه کارمندانی که اطلاعات محرمانه مرتبط با ریسک خطر هوش مصنوعی را به صورت عمومی به اشتراک می گذارند، خودداری شود.

در مجموع ۱۳ کارمند، شامل هفت کارمند سابق OpenAI، چهار کارمند فعلی OpenAI، یک کارمند سابق و یک کارمند فعلی DeepMind گوگل نامه را امضا کردند. OpenAI کارکنان خود را به بهانه از دست دادن حقوق صاحبان سهام از صحبت کردن در مورد خطرات احتمالی هوش مصنوعی منع کرده و آنها را به امضای توافقنامه‌های سختگیرانه NDA مجبور نموده است که این اتفاق باعث سرپوش گذاشتن بر انتقادها می‌شود.

این نامه در حالی منتشر می‌شود که اپل خود را برای برگزاری مراسم WWDC 2024 روز دوشنبه آماده می‌کند؛ رویدادی که احتمالاً ضمن آن کوپرتینویی‌ها از چندین ویژگی مبتنی بر هوش مصنوعی برای iOS 18 و سایر بروزرسانی‌های نرم‌افزاری رونمایی کند.

اپل اخیراً بر روی عملکرد هوش مصنوعی خود تمرکز و اهتمام ویژه‌ای داشته است که در برنامه‌های سراسر سیستم عامل تأثیر می‌گذارد. به علاوه، قراردادی را با OpenAI امضا کرده است تا ویژگی‌های ChatGPT را در iOS 18 ادغام کند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا