گوگل در تلاش است تا با حذف پاسخهای عجیب هوش مصنوعی، راهحلی سریع برای مشکل اساسی این چتباتها ارائه دهد.
شبکههای اجتماعی پر از نمونههای مربوط به اشتباهات هوش مصنوعی جدید گوگل هستند که چیزهای عجیبی را بیان میکنند، از راه حل چسباندن چسب روی پیتزا گرفته تا پیشنهاد خوردن سنگ. اکنون اگر پرسشهای مشابهای را از هوش مصنوعی گوگل بپرسید متوجه خواهید شد که دیگر چنین پاسخهایی را به کاربران نخواهد داد؛ این بدان معناست که گوگل در تلاش است تا برای جلوگیری از تولید چنین میمها و تبلیغاتهای منفی در مورد محصول جدید خود، به صورت دستی چنین اشتباهاتی را حذف کند.
در حال حاضر تعداد زیادی از این اشتباهات پس از مدت کوتاهی از زمان ارسال در شبکههای اجتماعی، توسط گوگل برطرف میشوند و کاربران دیگر نمیتوانند با جستجو کردن به پاسخ مشابه دست پیدا کنند.
وضعیت عجیبی است؛ زیرا گوگل اکنون یک سال میشود که AI Overviews را آزمایش میکند؛ این ویژگی در ماه می ۲۰۲۳ به عنوان تجربه مولد جستجو در نسخه بتا راهاندازی شد و ساندار پیچای، مدیرعامل شرکت نیز اعلام کرده بود که این شرکت در این مدت بیش از یک میلیارد پاسخ ارائه کرده است.
پیچای همچنین اذعان داشته است گوگل هزینه ارائه پاسخهای هوش مصنوعی را ٰبه دلیل پیشرفتهای سختافزاری، مهندسی و فنی تا ۸۰ درصد کاهش داده است.
یکی از بنیانگذاران هوش مصنوعی که مایل بود نامش فاش نشود، به خبرگزاری وِرج گفت:«شرکتی که زمانی به خاطر پیشرو بودن و ارسال کالاها و خدمات باکیفیت شناخته میشد، اکنون به خاطر خروجیهای با کیفیت پایین که میم میشوند، شناخته میشود.»
گوگل همچنان میگوید که ابزار بررسی هوش مصنوعی آنها تا حد زیادی “اطلاعات با کیفیت بالا” را به کاربران ارائه میدهد. مگان فارنزورث، سخنگوی گوگل در ایمیلی به رسانه وِرج گفت:«بسیاری از نمونههایی که دیدهایم، پرسوجوهای غیرمعمول بودهاند، و همچنین نمونههایی را دیدهایم که به خودی خود اصلاح شدهاند یا حتی دیگر نتوانستیم به پاسخهای آن چنینی برسیم.»
فارنزورث همچنین تأیید کرد این شرکت “اقدامی سریع” را پیش خواهد گرفت تا پاسخهای نادرست هوش مصنوعی را در مورد برخی پرسشها حذف کند و از این نمونهها برای ایجاد پیشرفتهای گستردهتر در سیستمهای قدیمی خود استفاده کند.
گری مارکوس، کارشناس هوش مصنوعی و استاد بازنشسته علوم عصبی در دانشگاه نیویورک، به وِرج گفت که بسیاری از شرکتهای هوش مصنوعی «رویاها و شرایط آرمانی» را به کاربران خود میفروشند به طوریکه در تبلیغاتهای آنها میبینیم که میگویند این فناوری از ۸۰ درصد دقت به ۱۰۰ درصد رسیده است!
مارکوس گفت که دستیابی به ۸۰ درصد اولیه نسبتاً ساده است؛ زیرا بخش تقریباً زیادی از دادههای انسانی را شامل میشود اما آن ۲۰ درصد نهایی بسیار چالش برانگیز است. در واقع، مارکوس فکر میکند که ۲۰ درصد انتهایی ممکن است سختترین بخش دستیابی به هوش مصنوعی کامل باشد.
در واقع برای تصمیمگیری نیاز به استدلال دارید؛ “آیا این موضوع قابل قبول است؟” “آیا این منبع قانونی و درست است؟” هوش مصنوعی شما باید در این زمینه مانند قوه قضاوت یک انسان عمل کند که در واقع برای رسیدن به این هدف احتمالاً به هوش عمومی مصنوعی نیاز داشته باشد.
ماگری مارکوس، کارشناس هوش مصنوعی
مارکوس و یان لکون، رئیس هوش مصنوعی متا، هر بر این موضوع هم نظر هستند که مدلهای زبان بزرگی که سیستمهای هوش مصنوعی فعلی مانند جِمنای گوگل و GPT-4 را ایجاد میکنند، هیچکدام چیزی نیستند که در نهایت به پیشرفت و تولید AGI (هوش عمومی مصنوعی) ختم شوند.
ببینید، حضور گوگل در این حوزه برای آنها واقعاً دشوار بوده است. بینگ پیش از آن که گوگل بخواهد شعارهای تبلیغاتی خود را برای هوش مصنوعی بسازد، بر روی هوش مصنوعی کار کرده و پیشرفت داشته است. طبق گزارشها OpenAI بر روی موتور جستجوی جدید خود کار میکند. در حال حاضر راه اندازی موتور جستجوی جدید مبتنی بر هوش مصنوعی بسیار ارزشمند خواهد بود و نزدیک به یک میلیارد دلار قیمت خواهد داشت.
گوگل به وضوح فشار را در این رقابت احساس میکند و این فشار همان چیزی است که انتشار نامرتب و بی کیفیت هوش مصنوعی گوگل را باعث شده است. مارکوس به سال ۲۰۲۲ و انتشار سیستم هوش مصنوعی Galactica متا اشاره میکند که باید مدت کوتاهی پس از راهاندازی آن حذف میشد؛ زیرا، به مردم پیشنهاد میداد شیشه بخورند. آشنا به نظر میرسد!
گوگل برنامههای بزرگی برای توسعه و پیشرفت ابزار بررسی هوش مصنوعی دارد؛ در واقع این ابزار که در حال حاضر مورد استفاده قرار میگیرد، تنها بخشی کوچک از آن چیزی است گوگل هفته گذشته معرفی کرده است.
استدلال چند مرحلهای برای پرسوجوهای پیچیده، قابلیت ایجاد صفحه نتایج سازماندهی شده با هوش مصنوعی، جستجوی ویدیویی در گوگل لنز، تنها بخش کوچکی از جاهطلبیهای گوگل در زمینه هوش مصنوعی هستند. هر چند در حال حاضر، شهرت این شرکت به رعایت اصول اولیه بازمیگردد اما با وجود چنین اتفاقاتی، شهرت آنها ممکن است لکه دار شود.
مارکوس گفت: «[این مدلها] به صورت ذاتی نمیتوانند کار خود را بررسی کنند و این همان چیزی است که این صنعت را عقب نگه میدارد.»