توهم هوش مصنوعی ویسپر OpenAI

هوش مصنوعی ویسپر OpenAI در هنگام رونویسی دچار توهم می‌شود

در جدیدترین اخبار منتشر شده در صنعت تکنولوژی مطلع شدیم که هوش مصنوعی ویسپر OpenAI حتی در هنگام رونویسی دچار توهم می‌شود.

غول فناوری OpenAI ابزار رونویسی Whisper را که با هوش مصنوعی کار می‌کند، به عنوان «استحکام و دقت در سطح انسانی» معرفی کرده است اما به نظر می‌رسد که این ابزار یک نقص بزرگ دارد؛ براساس گزارش منتشر شده توسط رسانه APNews مطلع شدیم که طی مصاحبه با بیش از دوازده مهندس نرم‌افزار، توسعه‌دهنده و محقق دانشگاهی، هوش مصنوعی ویسپر OpenAI در هنگام رونویسی دچار توهم می‌شود و می‌تواند تفسیر نژادی، الفاظ خشونت‌آمیز و حتی درمان‌های پزشکی خیالی بگوید.

کارشناسان می‌گویند که چنین محتوایی مشکل‌ساز هستند زیرا ویسپر در بسیاری از صنایع در سراسر جهان برای ترجمه و رونویسی مصاحبه‌ها، تولید متن در پلتفرم‌های محبوب کاربران و ایجاد زیرنویس برای فیلم‌ها استفاده می‌شود. همچنین بیان کردند که موضوع نگران‌کننده‌تر، عجله مراکز پزشکی برای استفاده از ابزارهای مبتنی بر Whisper برای رونویسی مشاوره بیماران با پزشکان است، علی‌رغم هشدارهای OpenAI مبنی بر اینکه این ابزار نباید در «حوزه‌های پرخطر» مورد استفاده قرار گیرد.

تشخیص کامل این مشکل دشوار است اما محققان و مهندسان گفتند که اغلب در کار خود با توهمات ویسپر مواجه شده‌اند. به عنوان مثال، یکی از محققان دانشگاه میشیگان که مطالعه‌ای روی جلسات عمومی انجام می‌دهد، اظهار داشت که قبل از شروع تلاش برای بهبود مدل، از هر ۱۰ رونویسی صوتی که بررسی می‌کرد، هشت مورد از آن‌ها المان‌های توهم مشاهده می‌شد.

همچنین مهندس یادگیری ماشینی که بیش از ۱۰۰ ساعت از رونویسی‌های ویسپر را مطالعه کرده، می‌گوید در بیش از نیمی از این رونویسی‌ها موارد اشتباه و هذیان دیده می‌شود. علاوه‌براین، توسعه‌دهنده نیز می‌گوید در تمام ۲۶۰۰ ساعت رونویسی‌های این ابزار توهم پیدا کرده است.

آلوندرا نلسون، سال گذشته دفتر سیاست علم و فناوری کاخ سفید را برای دولت بایدن رهبری می‌کرد، اظهار داشت که چنین اشتباهاتی می‌تواند «عواقب واقعاً شدیدی» به‌ویژه در بیمارستان‌ها داشته باشد. نلسون، استاد مؤسسه مطالعات پیشرفته در پرینستون، نیوجرسی، گفت که «هیچکس خواهان تشخیص اشتباه نیست. باید این مشکل هرچه زودتر برطرف شود».

هوش مصنوعی ویسپر همچنین برای ایجاد زیرنویس‌های بسته برای ناشنوایان و کم‌شنوایان، جمعیتی که در معرض خطر ویژه برای رونویسی‌های معیوب هستند، استفاده می‌شود. کریستین ووگلر که ناشنوا است و برنامه دسترسی به فناوری دانشگاه گالودت را مدیریت می‌کند، می‌گوید این به این دلیل است که ناشنوایان و کم‌شنواها راهی برای شناسایی ساختگی‌های «پنهان شده در میان این متن دیگر» ندارند.

سخنگوی OpenAI در واکنش به این خبر اعلام کرد این شرکت مداوم برای بهبود دقت مدل‌ها و کاهش توهم‌ها تلاش می‌کرد. او همچنین گفت سیاست‌های آن‌ها استفاده از ویسپر را «در زمینه‌های خاص تصمیم‌گیری با ریسک بالا» ممنوع می‌کند. OpenAI درنهایت از محققان برای به‌اشتراک‌گذاری یافته‌های خود تقدیر کرد. با ما همراه باشید در صورت انتشار اخبار جدید در رابطه با این موضوع آن را با شما به اشتراک خواهیم گذاشت. همچنین شما نیز می‌توانید نظرات و پیش‌بینی‌های خود را درباره توهم هوش مصنوعی ویسپر با ما در میان بگذارید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا