در جدیدترین اخبار منتشر شده در صنعت تکنولوژی مطلع شدیم که با اعلام شرکت OpenAI استفاده از هوش مصنوعی در امور نظامی دیگر ممنوع نمیباشد.
براساس گزارش منشتر شده توسط رسانه The Intercept مطلع شدیم که شرکت OpenAI خیلی بیسروصدا اعلام کرد که اجازه استفاده از هوش مصنوعی در امور نظامی را میدهد. این شرکت در گذشته استفاده از محصولات خود برای امور نظامی را صراحتاً ممنوع اعلام کرده بود اما حالا دیگر چنین ممنوعیتی وجود ندارد.
تا ۱۰ ژانویه، صفحه سیاستهای شرکت OpenAI، ممنوعیت فعالیتهایی را که خطر آسیب فیزیکی بالایی دارند، میشد از جمله به طور خاص، توسعه تسلیحات نظامی و مواردی از این دست. این ممنوعیت صریح علیه کاربردهای نظامی ظاهراً هرگونه استفاده رسمی و بسیار سودآور توسط وزارت دفاع یا هر ارتش ایالتی دیگر را رد میکند. با این حال OpenAI سیاست خود را تغییر داده و این ممنوعیت را برداشته است.
البته به نظر میرسد که OpenAI به طور کلی متن مربوط به سیاست مصرف مدلهای هوش مصنوعی خود را بازنویسی کرده است تا قابل فهمتر باشد اما اینکه فهرست مشخص کاربردهای غیرمجاز حذف شده، در نوع خود عجیب است. نیکو فلیکس، سخنگوی OpenAI در ایمیلی به The Intercept در رابطه با این موضوع اظهار داشت:
ما قصد داشتیم مجموعهای از اصول جهانی ایجاد کنیم که تمامی افراد آن را هم بهخوبی به خاطر بسپارند و هم به کار گیرند، به ویژه که ابزارهای ما اکنون در سطح جهانی توسط کاربران روزمره که میتوانند GPT نیز بسازند، استفاده میشوند. موضوعی مانند «به دیگران آسیب نرسانید» بسیار گسترده بوده اما در زمینههای متعدد به راحتی قابل درک و مرتبط میباشد. علاوه بر این، ما به طور خاص به اسلحه و آسیب رساندن به دیگران به عنوان نمونههای بارز اشاره کردیم. هر گونه استفاده از فناوری ما، از جمله توسط ارتش، برای توسعه یا استفاده از سلاح، آسیب زدن به دیگران یا تخریب اموال یا درگیر شدن در فعالیتهای غیرمجاز و مجرمانه که امنیت هر سرویس یا سیستمی را نقض میکند، مجاز نیست.
شرکت OpenAI در حال حاضر همچنان از کاربران فناوریهای خود میخواهد که از این ابزارها برای آسیبرساندن به خود و دیگران استفاده نکنند. با این حال، باید منتظر بمانیم تا ببینیم در آینده این شرکت وارد حوزههایی خواهد شد که میتواند با امور نظامی مرتبط باشد یا خیر. به عبارت دیگر، شاید این تغییر مقدمهای بر استفاده از هوش مصنوعی در حوزههای نظامی باشد.
در سالهای اخیر قراردادهای شرکتهای فناوری با سازمانهای دفاعی و نظامی جنجالهای زیادی را به پا کردهاند. حالا با توجه به تحولات عظیمی که ChatGPT در دنیای هوش مصنوعی و بهطور کلی در دنیای فناوری ایجاد کرده، باید ببینیم که این ابزار و فناوریهای زیربنایی آن وارد حوزههای دفاعی خواهد شد یا خیر. پیشتر نیویورک تایمز در گزارشی مدعی شده بود که ایالاتمتحده و چین میخواهند به ابزارهای هوش مصنوعی استقلال تصمیمگیری در کشتن اهداف انسانی را دهند. انتشار این گزارش نگرانیهایی را در افکار عمومی به وجود آورد. با ما همراه باشید در صورت انتشار اخبار جدید در رابطه با این موضوع بلافاصله آن را با شما به اشتراک خواهیم گذاشت. همچنین شما نیز میتوانید نظرات و پیشبینیهای خود را درباره پیامدهای احتمالی هوش مصنوعی در آینده با ما در میان بگذارید.