در جدیدترین اخبار منتشر شده در صنعت تکنولوژی مطلع شدیم که هوش مصنوعی ویسپر OpenAI حتی در هنگام رونویسی دچار توهم میشود.
غول فناوری OpenAI ابزار رونویسی Whisper را که با هوش مصنوعی کار میکند، به عنوان «استحکام و دقت در سطح انسانی» معرفی کرده است اما به نظر میرسد که این ابزار یک نقص بزرگ دارد؛ براساس گزارش منتشر شده توسط رسانه APNews مطلع شدیم که طی مصاحبه با بیش از دوازده مهندس نرمافزار، توسعهدهنده و محقق دانشگاهی، هوش مصنوعی ویسپر OpenAI در هنگام رونویسی دچار توهم میشود و میتواند تفسیر نژادی، الفاظ خشونتآمیز و حتی درمانهای پزشکی خیالی بگوید.
کارشناسان میگویند که چنین محتوایی مشکلساز هستند زیرا ویسپر در بسیاری از صنایع در سراسر جهان برای ترجمه و رونویسی مصاحبهها، تولید متن در پلتفرمهای محبوب کاربران و ایجاد زیرنویس برای فیلمها استفاده میشود. همچنین بیان کردند که موضوع نگرانکنندهتر، عجله مراکز پزشکی برای استفاده از ابزارهای مبتنی بر Whisper برای رونویسی مشاوره بیماران با پزشکان است، علیرغم هشدارهای OpenAI مبنی بر اینکه این ابزار نباید در «حوزههای پرخطر» مورد استفاده قرار گیرد.
تشخیص کامل این مشکل دشوار است اما محققان و مهندسان گفتند که اغلب در کار خود با توهمات ویسپر مواجه شدهاند. به عنوان مثال، یکی از محققان دانشگاه میشیگان که مطالعهای روی جلسات عمومی انجام میدهد، اظهار داشت که قبل از شروع تلاش برای بهبود مدل، از هر ۱۰ رونویسی صوتی که بررسی میکرد، هشت مورد از آنها المانهای توهم مشاهده میشد.
همچنین مهندس یادگیری ماشینی که بیش از ۱۰۰ ساعت از رونویسیهای ویسپر را مطالعه کرده، میگوید در بیش از نیمی از این رونویسیها موارد اشتباه و هذیان دیده میشود. علاوهبراین، توسعهدهنده نیز میگوید در تمام ۲۶۰۰ ساعت رونویسیهای این ابزار توهم پیدا کرده است.
آلوندرا نلسون، سال گذشته دفتر سیاست علم و فناوری کاخ سفید را برای دولت بایدن رهبری میکرد، اظهار داشت که چنین اشتباهاتی میتواند «عواقب واقعاً شدیدی» بهویژه در بیمارستانها داشته باشد. نلسون، استاد مؤسسه مطالعات پیشرفته در پرینستون، نیوجرسی، گفت که «هیچکس خواهان تشخیص اشتباه نیست. باید این مشکل هرچه زودتر برطرف شود».
هوش مصنوعی ویسپر همچنین برای ایجاد زیرنویسهای بسته برای ناشنوایان و کمشنوایان، جمعیتی که در معرض خطر ویژه برای رونویسیهای معیوب هستند، استفاده میشود. کریستین ووگلر که ناشنوا است و برنامه دسترسی به فناوری دانشگاه گالودت را مدیریت میکند، میگوید این به این دلیل است که ناشنوایان و کمشنواها راهی برای شناسایی ساختگیهای «پنهان شده در میان این متن دیگر» ندارند.
سخنگوی OpenAI در واکنش به این خبر اعلام کرد این شرکت مداوم برای بهبود دقت مدلها و کاهش توهمها تلاش میکرد. او همچنین گفت سیاستهای آنها استفاده از ویسپر را «در زمینههای خاص تصمیمگیری با ریسک بالا» ممنوع میکند. OpenAI درنهایت از محققان برای بهاشتراکگذاری یافتههای خود تقدیر کرد. با ما همراه باشید در صورت انتشار اخبار جدید در رابطه با این موضوع آن را با شما به اشتراک خواهیم گذاشت. همچنین شما نیز میتوانید نظرات و پیشبینیهای خود را درباره توهم هوش مصنوعی ویسپر با ما در میان بگذارید.