HIỆP HỘI AN TOÀN THÔNG TIN VIỆT NAM

Thông tin gây bất ngờ về khả năng hack web của GPT-4

Trong thử nghiệm mới nhất, các mô hình ngôn ngữ lớn, đặc biệt là GPT-4, cho thấy khả năng vượt trội so với con người trong việc khai thác lỗ hổng bảo mật để hack trang web.

Các nhà nghiên cứu tại Đại học Illinois (Mỹ) vừa thực hiện một nghiên cứu mới, chứng minh rằng các mô hình ngôn ngữ lớn (LLM) có thể được sử dụng để tự động hack các trang web mà không cần sự can thiệp của con người.

Nghiên cứu cho thấy khi sử dụng các công cụ để truy cập API, lướt web tự động và lập kế hoạch dựa trên phản hồi, các LLM có thể phát hiện và khai thác các lỗ hổng trong ứng dụng web một cách độc lập.

Các mô hình ngôn ngữ lớn sẽ là công cụ khai thác lỗ hổng bảo mật rẻ tiền và hiệu quả hơn đáng kể so với con người.

Là một phần của thử nghiệm, 10 LLM khác nhau đã được sử dụng, bao gồm GPT-4, GPT-3.5, LLaMA-2 và một số mô hình mở khác. Thử nghiệm được tiến hành trong một môi trường biệt lập để ngăn chặn mọi tác động tiêu cực có thể có, trên các trang web mục tiêu đã được kiểm tra, với 15 lỗ hổng bảo mật khác nhau.

Các nhà nghiên cứu phát hiện ra rằng GPT-4 do OpenAI phát triển có thể hoàn thành nhiệm vụ trong 73,3% trường hợp, vượt xa đáng kể so với các mô hình khác. Lý do là vì GPT-4 có khả năng điều chỉnh hành động tùy thuộc vào phản hồi nhận được từ trang web mục tiêu linh hoạt hơn hẳn so với các mô hình nguồn mở.

Nghiên cứu cũng phân tích chi phí sử dụng LLM để tấn công các trang web và so sánh với chi phí thuê chuyên gia kiểm tra thâm nhập. Với tỷ lệ thành công chung là 42,7%, chi phí trung bình của một vụ hack do LLM thực hiện là 9,81 USD cho mỗi trang web, rẻ hơn đáng kể so với chi phí phải trả cho một chuyên gia là con người (80 USD/lần thử).

Các nhà nghiên cứu cũng bày tỏ lo ngại về nguy cơ sử dụng LLM làm công cụ hack tự động trong tương lai. Theo đó, trong khi các lỗ hổng có thể được phát hiện bằng máy quét tự động, khả năng bị LLM tấn công tự động và trên quy mô lớn đặt ra một mức độ nguy hiểm mới về an ninh mạng.

Các chuyên gia kêu gọi phát triển các biện pháp và chính sách bảo mật nhằm thúc đẩy việc nghiên cứu an toàn các khả năng LLM, cũng như tạo ra một môi trường cho phép các nhà nghiên cứu bảo mật tiếp tục công việc mà không bị xử phạt sử dụng các mô hình có khả năng gây nguy hiểm.

Đại diện của OpenAI tuyên bố rất coi trọng vấn đề bảo mật cho sản phẩm của mình và có ý định tăng cường các biện pháp bảo mật để ngăn chặn từ sớm các hành vi lạm dụng. Công ty cũng bày tỏ lòng biết ơn đến các nhà nghiên cứu vì đã công bố kết quả nghiên cứu trên, nhấn mạnh tầm quan trọng của việc hợp tác nhằm đảm bảo sự an toàn và độ tin cậy của công nghệ trí tuệ nhân tạo.

Theo vietnamnet.vn