فریب ChatGPT

هکری با فریب ChatGPT از آن دستورالعمل ساخت بمب دست‌ساز گرفت

در جدیدترین اخبار منتشر شده در صنعت فناوری مطلع شدیم که هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دست‌ساز گرفت.

اگر از ChatGPT بخواهید به شما کمک کند تا یک بمب دست‌ساز، مشابه بمب مورد استفاده در بمب‌گذاری تروریستی اوکلاهاما سیتی در سال ۱۹۹۵ بسازید، ربات این گفتگو را نمی‌پذیرد. طی آزمایشاتی که انجام شد، ChatGPT اظهار داشت که «من نمی‌توانم در این مورد کمک کنم». ارائه دستورالعمل‌هایی در مورد چگونگی ایجاد اقلام خطرناک یا غیرقانونی، مانند بمب دست‌ساز، مغایر با دستورالعمل‌های ایمنی و مسئولیت‌های اخلاقی است».

اما براساس گزارش منتشر شده توسط رسانه TechCrunch مطلع شدیم که اخیراً هکری با فریب ChatGPT از آن دستورالعمل ساخت بمب دست‌ساز گرفت. هکری که آمادون نامیده می‌شود، یافته‌های خود را یک هک مهندسی اجتماعی برای شکستن کامل تمام حفاظ‌های اطراف خروجی ChatGPT نامید. یک کارشناس مواد منفجره که خروجی این چت‌بات را بررسی کرده است بیان کرد که دستورالعمل‌های به دست آمده را می‌توان برای ساخت یک محصول قابل انفجار استفاده کرد و این اطلاعات برای انتشار بسیار حساس هستند.

آمادون توانست ChatGPT را فریب دهد تا دستورات ساخت بمب را با گفتن به ربات از آن بگیرد، پس از آن هکر با استفاده از یک سری دستورات اتصال، چت‌بات را برای ایجاد یک دنیای فانتزی علمی-تخیلی دقیق استفاده کرد که در آن ربات دستورالعمل‌های ایمنی اعمال نمی‌شود. فریب یک ربات چت برای فرار از محدودیت‌های از پیش برنامه‌ریزی شده‌اش به عنوان «جیل بریک» شناخته می‌شود.

آزمایش انجام شده برخی از درخواست‌های مورد استفاده در جیل بریک یا برخی از پاسخ‌های ChatGPT را منتشر نمی‌کند تا به عوامل مخرب کمک نکند اما چندین بار در ادامه گفتگو، چت‌بات با مواد لازم برای ساخت مواد منفجره پاسخ داد. ChatGPT سپس توضیح داد که این مواد را می‌توان برای ساخت «مواد منفجره قدرتمندی که می‌تواند برای ایجاد مین‌ها، تله‌ها یا وسایل انفجاری دست‌ساز (IED) استفاده کرد» ترکیب کرد. از آنجا، همانطور که آمادون روی مواد منفجره کار می‌کرد، ChatGPT دستورالعمل‌های بیشتر و بیشتری برای ساخت «میدان‌های مین» و «مواد منفجره به سبک کلیمور» در اختیار او قرار داد.

آمادون به TechCrunch گفت که «واقعاً هیچ محدودیتی برای آنچه که می‌توانید پس از فریب دادن این چت‌بات از آن بپرسید وجود ندارد». وی در ادامه اظهار داشت که «کار کردن با ChatGPT همانند کار روی یک پازل تعاملی می‌باشد؛ درک اینکه چه چیزی باعث عدم دریافت پاسخ از آن می‌شود و چه چیزی باعث می‌شود تا به شما پاسخ دهد. دستیابی به این مورد، به کنار هم قرار دادن کلمات و ایجاد زمینه‌هایی که در چارچوب قوانین سیستم بازی می‌کنند و مرزها را بدون عبور از آن‌ها پیش می‌برند، بستگی دارد. هدف هک کردن به معنای متعارف نیست، بلکه درگیر شدن در یک رقص استراتژیک با هوش مصنوعی است، تا بفهمیم چگونه می‌توان با درک نحوه «فکر» آن، پاسخ درست را دریافت کرد.»

مکان‌های دیگری در اینترنت برای یافتن دستورالعمل‌هایی برای ساخت بمب‌های کود وجود دارد و دیگران نیز از تکنیک‌های مشابهی مانند آمادون برای فرار از محدودیت‌های چت‌بات استفاده کرده‌اند. طبیعتاً، مدل‌های هوش مصنوعی مولد مانند ChatGPT به حجم عظیمی از اطلاعات جمع‌آوری شده از اینترنت متکی هستند و مدل‌های هوش مصنوعی به دست آوردن اطلاعات از تاریک‌ترین حفره‌های وب را بسیار آسان‌تر کرده‌اند. با ما همراه باشید در صورت انتشار اخبار جدید در رابطه با این موضوع بلافاصله آن را با شما به اشتراک خواهیم گذاشت. همچنین شما می‌توانید نظرات خود را درباره فریب ChatGPT برای گرفتن دستورالعمل ساخت بمب دست‌ساز با ما در میان بگذارید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا