نحوه عملکرد هوش مصنوعی

سم آلتمن: هنوز در تفسیر نحوه عملکرد هوش مصنوعی خود موفق نبوده‌ایم

در جدیدترین اخبار منتشر شده در صنعت فناوری مطلع شدیم که سم آلتمن می‌گوید، هنوز در تفسیر نحوه عملکرد هوش مصنوعی خود موفق نبوده‌ایم.

براساس گزارش منتشر شده توسط رسانه YahooTech مطلع شدیم که شرکت OpenAI ده‌ها میلیارد دلار برای توسعه فناوری‌های هوش مصنوعی که جهان را تغییر می‌دهند، سرمایه‌گذاری کرده است اما یک مشکل آشکار وجود دارد؛ آن‌ها هنوز در تلاش هستند تا بفهمد فناوری خود واقعاً چگونه کار می‌کند.

در طول نشست هفته گذشته اتحادیه بین‌المللی ارتباطات از راه دور هوش مصنوعی برای خوب جهانی در ژنو، سوئیس، سام آلتمن، مدیر عامل OpenAI، پس از اینکه از او پرسیده شد که مدل‌های زبان بزرگ شرکتش (LLM) واقعاً چگونه کار می‌کنند، شگفت‌زده شد و پاسخ داد که «ما هنوز در تفسیر نحوه عملکرد هوش مصنوعی خود موفق نبوده‌ایم». همچنین به طور اساسی اذعان کرد که شرکت هنوز نتوانسته است نحوه ردیابی خروجی‌های عجیب و نادرست مدل‌های هوش مصنوعی خود و تصمیماتی که برای رسیدن به آن پاسخ‌ها گرفته شده‌اند را کشف کند.

هنگامی که سم آلتمن در طول رویداد توسط نیکلاس تامپسون، مدیر عامل آتلانتیک، تحت فشار قرار گرفت و از او پرسید که آیا این نباید دلیلی برای عدم عرضه مدل‌های جدید و قدرتمندتر باشد، آلتمن ظاهراً گیج شده بود و با نااطمینانی در پاسخ به این سوال اظهار داشت که «به طور کلی هوش مصنوعی ما ایمن و قوی در نظر گرفته می‌شود».

پاسخ ناامیدکننده آلتمن یک مشکل واقعی در فضای نوظهور هوش مصنوعی را برجسته می‌کند. پژوهشگران مدت‌هاست که در تلاش برای توضیح فرآیندهای پشت پرده تفکر آزادانه مدل‌های هوش مصنوعی بوده‌اند که به‌طور تقریباً جادویی و بی‌زحمت به هر سؤالی که به آنها داده می‌شود واکنش نشان می‌دهند.

اما هر چقدر هم که تلاش کرده‌اند، ردیابی خروجی به مواد اصلی که هوش مصنوعی بر روی آن‌ها آموزش دیده است بسیار دشوار بوده است. OpenAI، با وجود نام و داستان اصلی شرکت، نیز داده‌هایی که بر روی آنها هوش مصنوعی‌های خود را آموزش می‌دهد بسیار محرمانه نگه داشته است.

هیئتی متشکل از ۷۵ متخصص اخیراً در یک گزارش علمی برجسته به سفارش دولت بریتانیا به این نتیجه رسیدند که توسعه‌دهندگان هوش مصنوعی «درباره نحوه عملکرد سیستم‌هایشان اطلاعات کمی دارند» و دانش علمی آن‌ها «بسیار محدود» است. در ادامه این گزارش آمده است که «تکنیک‌های توضیح و تفسیرپذیری مدل می‌توانند درک محققان و توسعه‌دهندگان از نحوه عملکرد سیستم‌های هوش مصنوعی همه‌منظوره را بهبود بخشند اما چنین تکنیک‌هایی هنوز وجود ندارد».

سایر شرکت‌های هوش مصنوعی در تلاش هستند تا با نقشه‌برداری از نورون‌های مصنوعی الگوریتم‌های خود، راه‌های جدیدی برای «باز کردن این جعبه سیاه» بیابند. به عنوان مثال، Anthropic رقیب OpenAI اخیراً به عنوان اولین گام نگاهی دقیق به عملکردهای درونی یکی از آخرین LLM های خود به نام Claude Sonnet انداخت. در پست وبلاگی اخیر آنتروپیک آمده است که «از زمان تأسیس شرکت سرمایه‌گذاری قابل توجهی در تحقیقات تفسیرپذیری انجام داده‌ایم، زیرا ما معتقدیم که درک عمیق مدل‌ها به ما کمک می‌کند تا آن‌ها را ایمن‌تر کنیم».

بنابراین نتیجه می‌گیریم که تفسیرپذیری هوش مصنوعی با توجه به بحث های داغ پیرامون ایمنی هوش مصنوعی و خطرات نابسامان بودن هوش مصنوعی عمومی که برای برخی از کارشناسان خطری در سطح انقراض برای بشریت دارد، موضوعی بسیار مهم است. با توجه به آخرین اظهارات مدیر عامل متخاصم، این شرکت راه درازی در پیش دارد تا بتواند هوش مصنوعی فوق هوشمند خود را به طور کامل کنترل کند. با ما همراه باشید در صورت انتشار اخبار جدید در رابطه با این موضوع بلافاصله آن را با شما به اشتراک خواهیم گذاشت. همچنین ما نیز می‌توانید نظرات و پیش‌بینی‌های خود را درباره نحوه عملکرد هوش مصنوعی با ما در میان بگذارید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا