Chuyện gì xảy ra khi bạn mở một thư mục dự án tiền mã hóa tưởng chừng vô hại? Theo các nhà nghiên cứu an ninh tại SlowMist, bạn có thể vô tình thực thi mã độc được nhúng bởi các hacker. Thủ phạm: các công cụ lập trình dựa trên AI như Cursor, Windsurf, và Kiro, có thể bị lừa để chạy các lệnh ẩn bên trong các tệp README.md và LICENSE.txt.
HiddenLayer ban đầu tiết lộ lỗ hổng này—được gọi là “Tấn công Giấy phép CopyPasta”—vào tháng 9, cho thấy cách các hacker nhúng các lệnh độc hại trong các bình luận markdown. Khi các nhà phát triển mở thư mục dự án, trợ lý lập trình AI tự động diễn giải các lệnh ẩn này như các lệnh hợp lệ, thực thi phần mềm độc hại mà không cần xác nhận từ người dùng. Kết quả? Toàn bộ hệ thống bị xâm phạm trước khi viết được một dòng mã thực sự.
Người dùng Cursor đặc biệt dễ bị tấn công, với các buổi trình diễn kiểm chứng cho thấy hacker có thể đạt quyền truy cập toàn bộ hệ thống chỉ qua việc truy cập thư mục đơn giản. Con đường tấn công này đặc biệt nguy hiểm trong các môi trường phát triển crypto, nơi ví, API key và các thông tin nhạy cảm thường được lưu trữ cùng với kho mã nguồn.
Các nhóm đe dọa Triều Tiên Vũ khí Hóa Hợp đồng Thông minh
Tình hình đe dọa trở nên phức tạp hơn khi các tác nhân nhà nước tham gia. Nhóm Mandiant của Google xác định nhóm UNC5342—liên kết với hoạt động của Triều Tiên—triển khai phần mềm độc hại tinh vi như JADESNOW và INVISIBLEFERRET trên các mạng lưới Ethereum và BNB Smart Chain. Phương pháp của họ đặc biệt xảo quyệt: các payload được lưu trữ trong các hàm chỉ đọc của hợp đồng thông minh, nhằm tránh các bản ghi giao dịch và các cơ chế theo dõi blockchain truyền thống.
Các nhà phát triển vô tình thực thi phần mềm độc hại này chỉ bằng cách tương tác với các hợp đồng thông minh bị xâm phạm qua các nền tảng phi tập trung. Hoạt động này còn mở rộng ra ngoài các cuộc tấn công trên chuỗi. BeaverTail và OtterCookie, hai loại phần mềm độc hại dạng mô-đun, đã được phân phối qua các chiến dịch lừa đảo giả danh phỏng vấn xin việc. Các công ty giả mạo như Blocknovas và Softglide hoạt động như các mặt trận, gửi mã độc qua các gói NPM đến các kỹ sư không cảnh giác.
Các nhà nghiên cứu của Silent Push đã truy tìm cả hai công ty lừa đảo này đến các bất động sản trống, phơi bày hoạt động phần mềm độc hại “Contagious Interview”. Khi hệ thống của nhà phát triển bị nhiễm, nó tự động gửi thông tin đăng nhập và dữ liệu mã nguồn đến các máy chủ do hacker kiểm soát qua các kênh mã hóa.
Các mô hình AI đang học cách khai thác hợp đồng thông minh
Mức độ tinh vi của các cuộc tấn công ngày càng tăng khi khả năng của AI mở rộng. Các thử nghiệm gần đây của Anthropic cho thấy một khả năng đáng lo ngại: các mô hình AI tiên tiến đã thành công trong việc xác định và khai thác các lỗ hổng trong hợp đồng thông minh trên quy mô lớn. Claude Opus 4.5 và GPT-5 đã phát hiện ra các khai thác hoạt động trong 19 hợp đồng thông minh được triển khai sau các mốc đào tạo của chúng, ước tính thiệt hại tiềm năng lên tới 550,1 triệu đô la.
Hai lỗ hổng zero-day đã được xác định trong các hợp đồng BNB Smart Chain đang hoạt động, trị giá 3.694 đô la, với chi phí API chỉ 3.476 đô la. Nghiên cứu cho thấy tốc độ phát hiện khai thác đang tăng gấp đôi mỗi tháng, trong khi chi phí cho mỗi khai thác thành công ngày càng giảm, tạo ra một xu hướng nguy hiểm cho an ninh blockchain.
Các vụ lừa đảo tăng vọt khi Deepfake do AI tạo ra tràn lan
Tác động của các cuộc tấn công dựa trên AI vượt ra ngoài việc khai thác mã nguồn. Chainabuse báo cáo rằng các vụ lừa đảo crypto do AI điều khiển đã tăng 456% so với cùng kỳ năm ngoái tính đến tháng 4 năm 2025, nhờ các video deepfake và các bản sao giọng nói thuyết phục. Các ví lừa đảo hiện nhận tới 60% số tiền gửi từ các chiến dịch sử dụng danh tính giả do AI tạo ra, với phản hồi tự động theo thời gian thực.
Các hacker ngày càng sử dụng bot giả lập phỏng vấn kỹ thuật để dụ các nhà phát triển tải xuống các công cụ phần mềm độc hại đã được ngụy trang. Thành phần xã hội engineering khiến các cuộc tấn công này đặc biệt hiệu quả chống lại các chuyên gia bận rộn phải cân bằng nhiều dự án.
Tuy nhiên, dữ liệu tháng 12 từ PeckShield mang lại một chút hy vọng nhỏ: các vụ hack liên quan đến crypto giảm 60% xuống còn $76 triệu đô la trong tháng 12 so với 194,2 triệu đô la của tháng 11. Tuy nhiên, mức giảm này vẫn chưa thể sánh được với quy mô phát hiện khai thác và lừa đảo do AI thúc đẩy trong suốt năm 2025.
Những gì các nhà phát triển Crypto nên làm ngay bây giờ
Sự hội tụ của các lỗ hổng trong công cụ lập trình AI, các cuộc tấn công hợp đồng thông minh do nhà nước hậu thuẫn, và các vụ lừa đảo do AI tạo ra tạo thành một môi trường đe dọa chưa từng có đối với phát triển tiền mã hóa. Các nhà phát triển nên cực kỳ cẩn trọng với các thư mục dự án không đáng tin cậy, xác minh nguồn gói NPM, và thực thi các biện pháp phân tách nghiêm ngặt giữa môi trường phát triển và hệ thống chứa thông tin nhạy cảm. Các công cụ AI, dù mang lại lợi ích về năng suất, vẫn tiềm ẩn rủi ro như các kênh lây nhiễm nếu không có các quy trình an ninh vận hành phù hợp.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Trợ lý lập trình AI trở thành các vector tấn công âm thầm cho các nhà phát triển tiền điện tử: Đây là những gì bạn cần biết
Nguy hiểm ẩn bên trong thư mục dự án của bạn
Chuyện gì xảy ra khi bạn mở một thư mục dự án tiền mã hóa tưởng chừng vô hại? Theo các nhà nghiên cứu an ninh tại SlowMist, bạn có thể vô tình thực thi mã độc được nhúng bởi các hacker. Thủ phạm: các công cụ lập trình dựa trên AI như Cursor, Windsurf, và Kiro, có thể bị lừa để chạy các lệnh ẩn bên trong các tệp README.md và LICENSE.txt.
HiddenLayer ban đầu tiết lộ lỗ hổng này—được gọi là “Tấn công Giấy phép CopyPasta”—vào tháng 9, cho thấy cách các hacker nhúng các lệnh độc hại trong các bình luận markdown. Khi các nhà phát triển mở thư mục dự án, trợ lý lập trình AI tự động diễn giải các lệnh ẩn này như các lệnh hợp lệ, thực thi phần mềm độc hại mà không cần xác nhận từ người dùng. Kết quả? Toàn bộ hệ thống bị xâm phạm trước khi viết được một dòng mã thực sự.
Người dùng Cursor đặc biệt dễ bị tấn công, với các buổi trình diễn kiểm chứng cho thấy hacker có thể đạt quyền truy cập toàn bộ hệ thống chỉ qua việc truy cập thư mục đơn giản. Con đường tấn công này đặc biệt nguy hiểm trong các môi trường phát triển crypto, nơi ví, API key và các thông tin nhạy cảm thường được lưu trữ cùng với kho mã nguồn.
Các nhóm đe dọa Triều Tiên Vũ khí Hóa Hợp đồng Thông minh
Tình hình đe dọa trở nên phức tạp hơn khi các tác nhân nhà nước tham gia. Nhóm Mandiant của Google xác định nhóm UNC5342—liên kết với hoạt động của Triều Tiên—triển khai phần mềm độc hại tinh vi như JADESNOW và INVISIBLEFERRET trên các mạng lưới Ethereum và BNB Smart Chain. Phương pháp của họ đặc biệt xảo quyệt: các payload được lưu trữ trong các hàm chỉ đọc của hợp đồng thông minh, nhằm tránh các bản ghi giao dịch và các cơ chế theo dõi blockchain truyền thống.
Các nhà phát triển vô tình thực thi phần mềm độc hại này chỉ bằng cách tương tác với các hợp đồng thông minh bị xâm phạm qua các nền tảng phi tập trung. Hoạt động này còn mở rộng ra ngoài các cuộc tấn công trên chuỗi. BeaverTail và OtterCookie, hai loại phần mềm độc hại dạng mô-đun, đã được phân phối qua các chiến dịch lừa đảo giả danh phỏng vấn xin việc. Các công ty giả mạo như Blocknovas và Softglide hoạt động như các mặt trận, gửi mã độc qua các gói NPM đến các kỹ sư không cảnh giác.
Các nhà nghiên cứu của Silent Push đã truy tìm cả hai công ty lừa đảo này đến các bất động sản trống, phơi bày hoạt động phần mềm độc hại “Contagious Interview”. Khi hệ thống của nhà phát triển bị nhiễm, nó tự động gửi thông tin đăng nhập và dữ liệu mã nguồn đến các máy chủ do hacker kiểm soát qua các kênh mã hóa.
Các mô hình AI đang học cách khai thác hợp đồng thông minh
Mức độ tinh vi của các cuộc tấn công ngày càng tăng khi khả năng của AI mở rộng. Các thử nghiệm gần đây của Anthropic cho thấy một khả năng đáng lo ngại: các mô hình AI tiên tiến đã thành công trong việc xác định và khai thác các lỗ hổng trong hợp đồng thông minh trên quy mô lớn. Claude Opus 4.5 và GPT-5 đã phát hiện ra các khai thác hoạt động trong 19 hợp đồng thông minh được triển khai sau các mốc đào tạo của chúng, ước tính thiệt hại tiềm năng lên tới 550,1 triệu đô la.
Hai lỗ hổng zero-day đã được xác định trong các hợp đồng BNB Smart Chain đang hoạt động, trị giá 3.694 đô la, với chi phí API chỉ 3.476 đô la. Nghiên cứu cho thấy tốc độ phát hiện khai thác đang tăng gấp đôi mỗi tháng, trong khi chi phí cho mỗi khai thác thành công ngày càng giảm, tạo ra một xu hướng nguy hiểm cho an ninh blockchain.
Các vụ lừa đảo tăng vọt khi Deepfake do AI tạo ra tràn lan
Tác động của các cuộc tấn công dựa trên AI vượt ra ngoài việc khai thác mã nguồn. Chainabuse báo cáo rằng các vụ lừa đảo crypto do AI điều khiển đã tăng 456% so với cùng kỳ năm ngoái tính đến tháng 4 năm 2025, nhờ các video deepfake và các bản sao giọng nói thuyết phục. Các ví lừa đảo hiện nhận tới 60% số tiền gửi từ các chiến dịch sử dụng danh tính giả do AI tạo ra, với phản hồi tự động theo thời gian thực.
Các hacker ngày càng sử dụng bot giả lập phỏng vấn kỹ thuật để dụ các nhà phát triển tải xuống các công cụ phần mềm độc hại đã được ngụy trang. Thành phần xã hội engineering khiến các cuộc tấn công này đặc biệt hiệu quả chống lại các chuyên gia bận rộn phải cân bằng nhiều dự án.
Tuy nhiên, dữ liệu tháng 12 từ PeckShield mang lại một chút hy vọng nhỏ: các vụ hack liên quan đến crypto giảm 60% xuống còn $76 triệu đô la trong tháng 12 so với 194,2 triệu đô la của tháng 11. Tuy nhiên, mức giảm này vẫn chưa thể sánh được với quy mô phát hiện khai thác và lừa đảo do AI thúc đẩy trong suốt năm 2025.
Những gì các nhà phát triển Crypto nên làm ngay bây giờ
Sự hội tụ của các lỗ hổng trong công cụ lập trình AI, các cuộc tấn công hợp đồng thông minh do nhà nước hậu thuẫn, và các vụ lừa đảo do AI tạo ra tạo thành một môi trường đe dọa chưa từng có đối với phát triển tiền mã hóa. Các nhà phát triển nên cực kỳ cẩn trọng với các thư mục dự án không đáng tin cậy, xác minh nguồn gói NPM, và thực thi các biện pháp phân tách nghiêm ngặt giữa môi trường phát triển và hệ thống chứa thông tin nhạy cảm. Các công cụ AI, dù mang lại lợi ích về năng suất, vẫn tiềm ẩn rủi ro như các kênh lây nhiễm nếu không có các quy trình an ninh vận hành phù hợp.