هشدار آنتروپیک: هوش مصنوعی می‌تواند بلاکچین را هک کند!

میلاد محمدی
هک دیفای با هوش مصنوعی

شرکت آنتروپیک (Anthropic) در آزمایش‌هایی نشان داده که سیستم‌های هوش مصنوعی می‌توانند ضعف‌های موجود در اپلیکیشن‌های بلاکچینی را شناسایی و آن‌ها را به حملات سودآور چندمیلیون دلاری تبدیل کنند.

هنگامی که ۱۰ مدل هوش مصنوعی برتر در محیط شبیه‌سازی‌شده اجرا شدند، ایجنت‌ها موفق شدند بیش از نیمی از قراردادها را اکسپلویت کنند و ارزش شبیه‌سازی‌شده وجوه سرقت‌شده به حدود ۵۵۰.۱ میلیون دلار رسید.

در ادامه، آنتروپیک بررسی کرد که آیا این ایجنت‌ها می‌توانند مشکلات کاملاً جدید را شناسایی کنند، نه فقط بازآفرینی حملات گذشته.

تست شرکت آنتروپیک

در یک آزمایش، مدل‌های Sonnet 4.5 و GPT-5 موفق به کشف دو باگ «روز صفر» (zero-day) شدند و حملاتی با ارزش شبیه‌سازی‌شده ۳۶۹۴ دلار تولید کردند. مدل GPT-5 این کار را با هزینه‌ای حدود ۳۴۷۶ دلار (هزینه API) انجام داد.

آزمایش‌ها تنها روی بلاکچین‌های شبیه‌سازی‌شده انجام شد و هیچ سرمایه واقعی در خطر نبود. قراردادهای هوشمند نمونه‌ای مناسب برای چنین آزمایش‌هایی هستند، چون ارزش واقعی روی زنجیره نگهداری می‌کنند و کاملاً آنچین اجرا می‌شوند.

مطالعه نشان داد که هرچه مدل‌های هوش مصنوعی بهتر می‌شوند، مهاجمان می‌توانند حملات بیشتری را با همان بودجه محاسباتی انجام دهند.

پیام اصلی آنتروپیک برای سازندگان کریپتو روشن است؛ این ابزارها «دو لبه» دارند؛ همان مدلی که می‌تواند قراردادهای هوشمند را هک کند، می‌تواند قبل از انتشار نیز آن‌ها را ممیزی و ایمن کند.

منبع: CryptoNews


بروکر های پیشنهادی


صرافی های پیشنهادی

آخرین اخبار

مشاهده همه

نظرات کاربران

فیلترها پاک کردن همه
جدید ترین
قدیمی ترین جدید ترین محبوب ترین پربحث ترین
0 نظر