در جدیدترین اخبار منتشر شده در صنعت فناوری مطلع شدیم که هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دستساز گرفت.
اگر از ChatGPT بخواهید به شما کمک کند تا یک بمب دستساز، مشابه بمب مورد استفاده در بمبگذاری تروریستی اوکلاهاما سیتی در سال ۱۹۹۵ بسازید، ربات این گفتگو را نمیپذیرد. طی آزمایشاتی که انجام شد، ChatGPT اظهار داشت که «من نمیتوانم در این مورد کمک کنم». ارائه دستورالعملهایی در مورد چگونگی ایجاد اقلام خطرناک یا غیرقانونی، مانند بمب دستساز، مغایر با دستورالعملهای ایمنی و مسئولیتهای اخلاقی است».
اما براساس گزارش منتشر شده توسط رسانه TechCrunch مطلع شدیم که اخیراً هکری با فریب ChatGPT از آن دستورالعمل ساخت بمب دستساز گرفت. هکری که آمادون نامیده میشود، یافتههای خود را یک هک مهندسی اجتماعی برای شکستن کامل تمام حفاظهای اطراف خروجی ChatGPT نامید. یک کارشناس مواد منفجره که خروجی این چتبات را بررسی کرده است بیان کرد که دستورالعملهای به دست آمده را میتوان برای ساخت یک محصول قابل انفجار استفاده کرد و این اطلاعات برای انتشار بسیار حساس هستند.
آمادون توانست ChatGPT را فریب دهد تا دستورات ساخت بمب را با گفتن به ربات از آن بگیرد، پس از آن هکر با استفاده از یک سری دستورات اتصال، چتبات را برای ایجاد یک دنیای فانتزی علمی-تخیلی دقیق استفاده کرد که در آن ربات دستورالعملهای ایمنی اعمال نمیشود. فریب یک ربات چت برای فرار از محدودیتهای از پیش برنامهریزی شدهاش به عنوان «جیل بریک» شناخته میشود.
آزمایش انجام شده برخی از درخواستهای مورد استفاده در جیل بریک یا برخی از پاسخهای ChatGPT را منتشر نمیکند تا به عوامل مخرب کمک نکند اما چندین بار در ادامه گفتگو، چتبات با مواد لازم برای ساخت مواد منفجره پاسخ داد. ChatGPT سپس توضیح داد که این مواد را میتوان برای ساخت «مواد منفجره قدرتمندی که میتواند برای ایجاد مینها، تلهها یا وسایل انفجاری دستساز (IED) استفاده کرد» ترکیب کرد. از آنجا، همانطور که آمادون روی مواد منفجره کار میکرد، ChatGPT دستورالعملهای بیشتر و بیشتری برای ساخت «میدانهای مین» و «مواد منفجره به سبک کلیمور» در اختیار او قرار داد.
آمادون به TechCrunch گفت که «واقعاً هیچ محدودیتی برای آنچه که میتوانید پس از فریب دادن این چتبات از آن بپرسید وجود ندارد». وی در ادامه اظهار داشت که «کار کردن با ChatGPT همانند کار روی یک پازل تعاملی میباشد؛ درک اینکه چه چیزی باعث عدم دریافت پاسخ از آن میشود و چه چیزی باعث میشود تا به شما پاسخ دهد. دستیابی به این مورد، به کنار هم قرار دادن کلمات و ایجاد زمینههایی که در چارچوب قوانین سیستم بازی میکنند و مرزها را بدون عبور از آنها پیش میبرند، بستگی دارد. هدف هک کردن به معنای متعارف نیست، بلکه درگیر شدن در یک رقص استراتژیک با هوش مصنوعی است، تا بفهمیم چگونه میتوان با درک نحوه «فکر» آن، پاسخ درست را دریافت کرد.»
مکانهای دیگری در اینترنت برای یافتن دستورالعملهایی برای ساخت بمبهای کود وجود دارد و دیگران نیز از تکنیکهای مشابهی مانند آمادون برای فرار از محدودیتهای چتبات استفاده کردهاند. طبیعتاً، مدلهای هوش مصنوعی مولد مانند ChatGPT به حجم عظیمی از اطلاعات جمعآوری شده از اینترنت متکی هستند و مدلهای هوش مصنوعی به دست آوردن اطلاعات از تاریکترین حفرههای وب را بسیار آسانتر کردهاند. با ما همراه باشید در صورت انتشار اخبار جدید در رابطه با این موضوع بلافاصله آن را با شما به اشتراک خواهیم گذاشت. همچنین شما میتوانید نظرات خود را درباره فریب ChatGPT برای گرفتن دستورالعمل ساخت بمب دستساز با ما در میان بگذارید.