در جدیدترین اخبار منتشر شده در صنعت فناوری مطلع شدیم که سم آلتمن میگوید، هنوز در تفسیر نحوه عملکرد هوش مصنوعی خود موفق نبودهایم.
براساس گزارش منتشر شده توسط رسانه YahooTech مطلع شدیم که شرکت OpenAI دهها میلیارد دلار برای توسعه فناوریهای هوش مصنوعی که جهان را تغییر میدهند، سرمایهگذاری کرده است اما یک مشکل آشکار وجود دارد؛ آنها هنوز در تلاش هستند تا بفهمد فناوری خود واقعاً چگونه کار میکند.
در طول نشست هفته گذشته اتحادیه بینالمللی ارتباطات از راه دور هوش مصنوعی برای خوب جهانی در ژنو، سوئیس، سام آلتمن، مدیر عامل OpenAI، پس از اینکه از او پرسیده شد که مدلهای زبان بزرگ شرکتش (LLM) واقعاً چگونه کار میکنند، شگفتزده شد و پاسخ داد که «ما هنوز در تفسیر نحوه عملکرد هوش مصنوعی خود موفق نبودهایم». همچنین به طور اساسی اذعان کرد که شرکت هنوز نتوانسته است نحوه ردیابی خروجیهای عجیب و نادرست مدلهای هوش مصنوعی خود و تصمیماتی که برای رسیدن به آن پاسخها گرفته شدهاند را کشف کند.
هنگامی که سم آلتمن در طول رویداد توسط نیکلاس تامپسون، مدیر عامل آتلانتیک، تحت فشار قرار گرفت و از او پرسید که آیا این نباید دلیلی برای عدم عرضه مدلهای جدید و قدرتمندتر باشد، آلتمن ظاهراً گیج شده بود و با نااطمینانی در پاسخ به این سوال اظهار داشت که «به طور کلی هوش مصنوعی ما ایمن و قوی در نظر گرفته میشود».
پاسخ ناامیدکننده آلتمن یک مشکل واقعی در فضای نوظهور هوش مصنوعی را برجسته میکند. پژوهشگران مدتهاست که در تلاش برای توضیح فرآیندهای پشت پرده تفکر آزادانه مدلهای هوش مصنوعی بودهاند که بهطور تقریباً جادویی و بیزحمت به هر سؤالی که به آنها داده میشود واکنش نشان میدهند.
اما هر چقدر هم که تلاش کردهاند، ردیابی خروجی به مواد اصلی که هوش مصنوعی بر روی آنها آموزش دیده است بسیار دشوار بوده است. OpenAI، با وجود نام و داستان اصلی شرکت، نیز دادههایی که بر روی آنها هوش مصنوعیهای خود را آموزش میدهد بسیار محرمانه نگه داشته است.
هیئتی متشکل از ۷۵ متخصص اخیراً در یک گزارش علمی برجسته به سفارش دولت بریتانیا به این نتیجه رسیدند که توسعهدهندگان هوش مصنوعی «درباره نحوه عملکرد سیستمهایشان اطلاعات کمی دارند» و دانش علمی آنها «بسیار محدود» است. در ادامه این گزارش آمده است که «تکنیکهای توضیح و تفسیرپذیری مدل میتوانند درک محققان و توسعهدهندگان از نحوه عملکرد سیستمهای هوش مصنوعی همهمنظوره را بهبود بخشند اما چنین تکنیکهایی هنوز وجود ندارد».
سایر شرکتهای هوش مصنوعی در تلاش هستند تا با نقشهبرداری از نورونهای مصنوعی الگوریتمهای خود، راههای جدیدی برای «باز کردن این جعبه سیاه» بیابند. به عنوان مثال، Anthropic رقیب OpenAI اخیراً به عنوان اولین گام نگاهی دقیق به عملکردهای درونی یکی از آخرین LLM های خود به نام Claude Sonnet انداخت. در پست وبلاگی اخیر آنتروپیک آمده است که «از زمان تأسیس شرکت سرمایهگذاری قابل توجهی در تحقیقات تفسیرپذیری انجام دادهایم، زیرا ما معتقدیم که درک عمیق مدلها به ما کمک میکند تا آنها را ایمنتر کنیم».
بنابراین نتیجه میگیریم که تفسیرپذیری هوش مصنوعی با توجه به بحث های داغ پیرامون ایمنی هوش مصنوعی و خطرات نابسامان بودن هوش مصنوعی عمومی که برای برخی از کارشناسان خطری در سطح انقراض برای بشریت دارد، موضوعی بسیار مهم است. با توجه به آخرین اظهارات مدیر عامل متخاصم، این شرکت راه درازی در پیش دارد تا بتواند هوش مصنوعی فوق هوشمند خود را به طور کامل کنترل کند. با ما همراه باشید در صورت انتشار اخبار جدید در رابطه با این موضوع بلافاصله آن را با شما به اشتراک خواهیم گذاشت. همچنین ما نیز میتوانید نظرات و پیشبینیهای خود را درباره نحوه عملکرد هوش مصنوعی با ما در میان بگذارید.