Trong một thế giới mà trí tuệ nhân tạo (AI) đang dần trở thành xương sống của mọi hoạt động kinh tế, từ tương tác giữa con người với AI cho đến AI tự tương tác với nhau, câu hỏi về an ninh mạng trở nên cấp bách hơn bao giờ hết. Khi AI ngày càng thông minh và mạnh mẽ, những lỗ hổng bảo mật tiềm ẩn cũng tăng lên theo cấp số nhân, đe dọa phá vỡ toàn bộ hệ thống an ninh truyền thống. Đó chính là lý do tại sao thông tin về việc Irregular, một công ty bảo mật AI tiên phong, vừa công bố gọi thành công 80 triệu USD trong vòng cấp vốn mới lại thu hút sự chú ý đặc biệt từ giới công nghệ toàn cầu.
Vòng cấp vốn này do hai quỹ đầu tư mạo hiểm hàng đầu là Sequoia Capital và Redpoint Ventures dẫn đầu, cùng với sự tham gia của Assaf Rappaport, CEO của Wiz – một tên tuổi lớn trong ngành bảo mật đám mây. Nguồn tin thân cận tiết lộ rằng vòng gọi vốn này đã định giá Irregular ở mức 450 triệu USD, một con số ấn tượng cho thấy niềm tin sâu sắc của các nhà đầu tư vào sứ mệnh và tiềm năng của công ty. Irregular, trước đây được biết đến với tên Pattern Labs, không chỉ tập trung vào việc vá lỗi hay khắc phục các rủi ro hiện có, mà còn hướng đến một mục tiêu đầy tham vọng hơn: phát hiện những rủi ro và hành vi bất thường mới nổi trước khi chúng kịp gây hại trong thực tế. Co-founder Dan Lahav chia sẻ với TechCrunch rằng: “Quan điểm của chúng tôi là, rất nhanh thôi, nhiều hoạt động kinh tế sẽ đến từ sự tương tác giữa con người và AI, cũng như giữa AI với AI, và điều đó sẽ phá vỡ hệ thống bảo mật ở nhiều điểm.” Điều này cho thấy tầm nhìn xa của Irregular trong việc bảo vệ tương lai AI của chúng ta.
Irregular bảo vệ tương lai AI như thế nào?
Irregular đã khẳng định vị thế là một người chơi quan trọng trong lĩnh vực đánh giá AI. Công việc của họ được trích dẫn trong các đánh giá bảo mật cho những mô hình tiên tiến như Claude 3.7 Sonnet của Anthropic, cũng như các mô hình o3 và o4-mini của OpenAI. Đặc biệt, khung điểm để đánh giá khả năng phát hiện lỗ hổng của một mô hình, được Irregular đặt tên là SOLVE, đã và đang được sử dụng rộng rãi trong ngành. Những thành tựu này không chỉ chứng minh năng lực kỹ thuật mà còn cho thấy sự tin cậy mà Irregular xây dựng được trong cộng đồng phát triển AI. Tuy nhiên, với khoản đầu tư mới, Irregular đang hướng tới một mục tiêu lớn lao hơn nữa: không chỉ giải quyết các rủi ro đã biết mà còn chủ động phát hiện những mối đe dọa mới nổi, những hành vi bất thường chưa từng thấy trước khi chúng kịp bộc lộ trong môi trường thực tế.
Để hiện thực hóa tham vọng này, Irregular đã xây dựng một hệ thống phức tạp gồm các môi trường mô phỏng. Đây là nơi các mô hình AI được thử nghiệm chuyên sâu trước khi được phát hành rộng rãi. Co-founder Omer Nevo tiết lộ: “Chúng tôi có các mô phỏng mạng lưới phức tạp, nơi chúng tôi để AI đóng cả vai trò kẻ tấn công và người phòng thủ. Vì vậy, khi một mô hình mới ra đời, chúng tôi có thể thấy các biện pháp phòng thủ hoạt động hiệu quả ở đâu và thất bại ở đâu.” Cách tiếp cận độc đáo này cho phép Irregular phát hiện ra những điểm yếu tiềm ẩn mà các phương pháp kiểm thử truyền thống khó có thể tìm thấy, đặc biệt là khi các mô hình ngôn ngữ lớn (LLM) ngày càng trở nên tinh vi và có khả năng tìm kiếm lỗ hổng phần mềm một cách hiệu quả – một năng lực có ý nghĩa sâu sắc đối với cả kẻ tấn công và người phòng thủ.
An ninh đã trở thành một trọng tâm lớn của ngành công nghiệp AI, khi những rủi ro tiềm tàng do các mô hình tiên tiến đặt ra ngày càng lộ rõ. Ngay cả OpenAI cũng đã đại tu các biện pháp bảo mật nội bộ của mình vào mùa hè này, nhằm đối phó với nguy cơ gián điệp doanh nghiệp tiềm ẩn. Đối với các nhà sáng lập Irregular, đây chỉ là khởi đầu của rất nhiều thách thức bảo mật do khả năng ngày càng tăng của các mô hình ngôn ngữ lớn gây ra. Lahav khẳng định: “Nếu mục tiêu của các phòng thí nghiệm tiên phong là tạo ra các mô hình ngày càng tinh vi và có năng lực hơn, thì mục tiêu của chúng tôi là bảo mật những mô hình này. Nhưng đó là một mục tiêu di động, vì vậy về bản chất, sẽ có rất, rất nhiều việc phải làm trong tương lai.” Điều này nhấn mạnh rằng cuộc đua bảo mật AI là một cuộc chiến không ngừng nghỉ, đòi hỏi sự đổi mới liên tục và tầm nhìn chiến lược để bảo vệ tương lai công nghệ của nhân loại.