تعدادی از کارمندان فعلی و اسبق OpenAI نسبت به خطرات احتمالی پیشرفت هوش مصنوعی هشدار میدهند.
بر اساس گزارشی از خبرگزاری مکرومرز، تعدادی از کارمندان فعلی و سابق OpenAI و DeepMind گوگل روز گذشته، نامه سرگشادهای نسبت به خطرات پیشرفت هوش مصنوعی و عدم نظارت کافی شرکتهایی که بر روی این فناوری کار میکنند، به اشتراک گذاشتند.
این کارکنان اذعان دارند که همگام با توسعه هوش مصنوعی با خطرات متعددی روبرو هستیم که میتوان به پررنگتر شدن نابرابریها و بیعدالتیهای اجتماعی، دستکاری و اطلاعات نادرست و از دست دادن کنترل سیستمهای هوش مصنوعی مستقل اشاره کرد. در این نامه ذکر شده است که این خطرات میتواند به انقراض انسان منجر شود.
شرکتهای هوش مصنوعی برای توسعه این فناوری اسپانسرهای مالی قدرتمندی دارند که به آنها اجازه کار شبانهروزی بر روی این تکنولوژی نوین را میدهد؛ به طوری که چندان به اقدامات حفاظتی و سطحبندی خطرات مربوط به این فناوری نمیپردازند.
تا زمانی که نظارت مؤثر دولت بر این شرکت ها وجود نداشته باشد، کارمندان فعلی و سابق از معدود افرادی هستند که می توانند آنها را در برابر مردم پاسخگو کنند. به علاوه، توافقنامههای محرمانه گستردهای که در زمینه سیاست انتشار اطلاعات این شرکتها در زمینه هوش مصنوعی وجود دارد، ما را از ابراز نگرانیهایمان در این باره باز میدارد، هر چند در برخی موارد این شرکتها در حفظ محرمانگی اطلاعات دچار عدم هماهنگی و رسوخهایی از سوی بعضی از کارمندان خود میشوند که باعث همین اندک روزنه امید برای بحث و به چالش کشیدن شرکتهای توسعه دهنده میشود.
مواردی که این افشاگران فاش میکنند نیز بیشتر بر فعالیتهای غیرقانونی تمرکز میکنند، در حالیکه بسیاری از خطراتی که ما در مورد آنها ابراز نگرانی میکنیم، هنوز اندکی دور به نظر میرسند.
البته کارمندان شرکتهای هوش مصنوعی از این کمپانیها میخواهند تا برای صحبت در مورد خطرات هوش مصنوعی، از افشاگرهای این حوزه محافظت کرده و امنیت شغلی آنها را به صورت زیر تضمین کنند:
- از ایجاد یا اجرای توافقاتی که از انتقاد برای نگرانیهای مرتبط با خطرهای هوش مصنوعی جلوگیری میکند، خودداری کنید.
- یک فرآیند ناشناس قابل تأیید برای کارمندان ارائه دهند تا نگرانیهای مرتبط با خطرات احتمالی هوش مصنوعی را با هیئت مدیره، تنظیمکنندهها و سازمانهای مستقل متخصص در این حوزه مطرح کنند.
- از فرهنگ انتقاد آشکار و صریح حمایت کنند تا بدین شکل به کارمندان اجازه بروز نگرانیهای مرتبط با خطرات احتمالی هوش مصنوعی داده شود و به مردم، هیئت مدیره، قانونگذاران و… نیز این نگرانیها منعکس شود.
- از اخراج یا تنبیه کارمندانی که اطلاعات محرمانه مرتبط با ریسک خطر هوش مصنوعی را به صورت عمومی به اشتراک می گذارند، خودداری شود.
در مجموع ۱۳ کارمند، شامل هفت کارمند سابق OpenAI، چهار کارمند فعلی OpenAI، یک کارمند سابق و یک کارمند فعلی DeepMind گوگل نامه را امضا کردند. OpenAI کارکنان خود را به بهانه از دست دادن حقوق صاحبان سهام از صحبت کردن در مورد خطرات احتمالی هوش مصنوعی منع کرده و آنها را به امضای توافقنامههای سختگیرانه NDA مجبور نموده است که این اتفاق باعث سرپوش گذاشتن بر انتقادها میشود.
این نامه در حالی منتشر میشود که اپل خود را برای برگزاری مراسم WWDC 2024 روز دوشنبه آماده میکند؛ رویدادی که احتمالاً ضمن آن کوپرتینوییها از چندین ویژگی مبتنی بر هوش مصنوعی برای iOS 18 و سایر بروزرسانیهای نرمافزاری رونمایی کند.
اپل اخیراً بر روی عملکرد هوش مصنوعی خود تمرکز و اهتمام ویژهای داشته است که در برنامههای سراسر سیستم عامل تأثیر میگذارد. به علاوه، قراردادی را با OpenAI امضا کرده است تا ویژگیهای ChatGPT را در iOS 18 ادغام کند.