Trong bối cảnh công nghệ trí tuệ nhân tạo (AI) đang phát triển như vũ bão, kéo theo cả những hứa hẹn và không ít lo ngại, việc quản lý và đảm bảo an toàn cho các mô hình AI tiên tiến trở thành một chủ đề nóng bỏng. Mới đây, một tin tức gây chú ý đặc biệt trong giới công nghệ và chính trị là việc Anthropic, một trong những nhà phát triển AI hàng đầu thế giới, chính thức tuyên bố ủng hộ dự luật SB 53 của California. Đây là một dự luật do thượng nghị sĩ bang Scott Wiener đề xuất, nhằm áp đặt các yêu cầu minh bạch chưa từng có đối với các nhà phát triển mô hình AI lớn nhất toàn cầu.
Sự ủng hộ từ Anthropic không chỉ là một động thái hiếm hoi mà còn là một thắng lợi lớn cho SB 53. Điều này càng trở nên đáng chú ý khi nhiều tập đoàn công nghệ lớn khác như Hiệp hội Công nghệ Tiêu dùng (CTA) và Chamber for Progress đang tích cực vận động hành lang chống lại dự luật này. Anthropic đã chia sẻ trong một bài đăng trên blog rằng: “Mặc dù chúng tôi tin rằng an toàn AI tiên tiến tốt nhất nên được giải quyết ở cấp liên bang thay vì một loạt các quy định cấp bang, nhưng những tiến bộ AI mạnh mẽ sẽ không chờ đợi sự đồng thuận ở Washington. Câu hỏi không phải là liệu chúng ta có cần quản trị AI hay không – mà là liệu chúng ta sẽ phát triển nó một cách chu đáo ngay hôm nay hay phản ứng một cách thụ động vào ngày mai. SB 53 mang đến một con đường vững chắc để đạt được điều trước.”
Nếu được thông qua, SB 53 sẽ yêu cầu các nhà phát triển mô hình AI hàng đầu như OpenAI, Anthropic, Google và xAI phải xây dựng các khung an toàn, cũng như công bố các báo cáo an toàn và bảo mật công khai trước khi triển khai các mô hình AI mạnh mẽ. Dự luật cũng sẽ thiết lập các biện pháp bảo vệ người tố giác, khuyến khích nhân viên lên tiếng về các mối lo ngại về an toàn. Trọng tâm của dự luật này là hạn chế các mô hình AI gây ra “rủi ro thảm khốc,” được định nghĩa là gây ra cái chết của ít nhất 50 người hoặc thiệt hại hơn một tỷ đô la. SB 53 tập trung vào những rủi ro cực đoan của AI – như việc sử dụng AI để hỗ trợ tạo vũ khí sinh học hoặc trong các cuộc tấn công mạng – thay vì những lo ngại ngắn hạn hơn như deepfake AI hay xu nịnh.
Phiên bản trước của SB 53 đã được Thượng viện California phê duyệt, nhưng vẫn cần một cuộc bỏ phiếu cuối cùng trước khi có thể được chuyển đến bàn của thống đốc. Thống đốc Gavin Newsom hiện vẫn giữ im lặng về dự luật, mặc dù ông đã phủ quyết dự luật an toàn AI trước đó của Thượng nghị sĩ Wiener, SB 1047. Các dự luật điều chỉnh các nhà phát triển mô hình AI tiên tiến đã phải đối mặt với sự phản đối đáng kể từ cả Thung lũng Silicon và chính quyền Trump, với lập luận rằng những nỗ lực như vậy có thể hạn chế sự đổi mới của Mỹ trong cuộc đua với Trung Quốc. Các nhà đầu tư như Andreessen Horowitz và Y Combinator đã dẫn đầu một số cuộc phản đối chống lại SB 1047, và trong những tháng gần đây, chính quyền Trump đã nhiều lần đe dọa chặn các bang ban hành quy định về AI.
Một trong những lập luận phổ biến nhất chống lại các dự luật an toàn AI là các bang nên để vấn đề này cho chính phủ liên bang giải quyết. Matt Perault, người đứng đầu chính sách AI của Andreessen Horowitz, và Jai Ramaswamy, giám đốc pháp lý, đã xuất bản một bài đăng trên blog tuần trước lập luận rằng nhiều dự luật AI cấp bang hiện nay có nguy cơ vi phạm Điều khoản Thương mại của Hiến pháp – vốn hạn chế các chính phủ bang ban hành luật vượt ra ngoài biên giới của họ và làm suy yếu thương mại giữa các bang. Tuy nhiên, Jack Clark, đồng sáng lập Anthropic, lập luận trong một bài đăng trên X rằng ngành công nghệ sẽ xây dựng các hệ thống AI mạnh mẽ trong những năm tới và không thể chờ đợi chính phủ liên bang hành động. Ông nói: “Chúng tôi đã nói từ lâu rằng chúng tôi sẽ ưu tiên một tiêu chuẩn liên bang. Nhưng trong trường hợp không có điều đó, đây tạo ra một kế hoạch chi tiết vững chắc cho quản trị AI không thể bỏ qua.”
Trong khi đó, Chris Lehane, giám đốc các vấn đề toàn cầu của OpenAI, đã gửi một lá thư cho Thống đốc Newsom vào tháng 8, lập luận rằng ông không nên thông qua bất kỳ quy định AI nào có thể đẩy các công ty khởi nghiệp ra khỏi California – mặc dù lá thư không đề cập đến SB 53 một cách cụ thể. Miles Brundage, cựu trưởng phòng nghiên cứu chính sách của OpenAI, đã bình luận trên X rằng lá thư của Lehane “chứa đầy những thông tin sai lệch về SB 53 và chính sách AI nói chung.” Đáng chú ý, SB 53 chỉ nhằm mục đích điều chỉnh các công ty AI lớn nhất thế giới – đặc biệt là những công ty có doanh thu gộp hơn 500 triệu đô la. Mặc dù có những chỉ trích, các chuyên gia chính sách cho rằng SB 53 là một cách tiếp cận khiêm tốn hơn so với các dự luật an toàn AI trước đây. Dean Ball, một thành viên cấp cao tại Foundation for American Innovation và cựu cố vấn chính sách AI của Nhà Trắng, đã nói trong một bài đăng trên blog vào tháng 8 rằng ông tin SB 53 hiện có cơ hội tốt để trở thành luật. Ball, người đã chỉ trích SB 1047, cho biết những người soạn thảo SB 53 đã “thể hiện sự tôn trọng thực tế kỹ thuật,” cũng như “mức độ kiềm chế lập pháp.”
Thượng nghị sĩ Wiener trước đây đã nói rằng SB 53 bị ảnh hưởng nặng nề bởi một hội đồng chuyên gia chính sách do Thống đốc Newsom triệu tập – đồng chủ trì bởi nhà nghiên cứu hàng đầu của Stanford và đồng sáng lập World Labs, Fei-Fei Li – để tư vấn cho California về cách điều chỉnh AI. Hầu hết các phòng thí nghiệm AI đã có một số phiên bản của chính sách an toàn nội bộ mà SB 53 yêu cầu. OpenAI, Google DeepMind và Anthropic thường xuyên công bố các báo cáo an toàn cho các mô hình của họ. Tuy nhiên, các công ty này không bị ràng buộc bởi bất kỳ ai ngoài chính họ, vì vậy đôi khi họ không tuân thủ các cam kết an toàn tự áp đặt. SB 53 nhằm mục đích thiết lập các yêu cầu này thành luật của tiểu bang, với các hậu quả tài chính nếu một phòng thí nghiệm AI không tuân thủ. Đầu tháng 9, các nhà lập pháp California đã sửa đổi SB 53 để loại bỏ một phần của dự luật yêu cầu các nhà phát triển mô hình AI phải được kiểm toán bởi bên thứ ba. Các công ty công nghệ trước đây đã đấu tranh chống lại các loại kiểm toán bên thứ ba này trong các cuộc chiến chính sách AI khác, lập luận rằng chúng quá nặng nề.
Nội dung chính
SB 53: Những yêu cầu cốt lõi và mục tiêu chính
Dự luật SB 53 của California được thiết kế để đặt ra những tiêu chuẩn minh bạch và an toàn mang tính đột phá cho ngành công nghiệp AI. Trọng tâm của dự luật này là yêu cầu các nhà phát triển mô hình AI tiên tiến, đặc biệt là những công ty lớn có doanh thu gộp trên 500 triệu đô la, phải xây dựng và công bố các khung an toàn chi tiết. Những khung này không chỉ là lời hứa suông mà còn phải được thể hiện qua các báo cáo an toàn và bảo mật công khai trước khi bất kỳ mô hình AI mạnh mẽ nào được triển khai.
Ngoài ra, SB 53 còn có một điều khoản quan trọng khác là bảo vệ người tố giác. Điều này khuyến khích các nhân viên nội bộ, những người có thể phát hiện ra các lỗ hổng hoặc rủi ro an toàn tiềm ẩn trong quá trình phát triển AI, có thể tự tin lên tiếng mà không sợ bị trả đũa. Mục tiêu cuối cùng của dự luật là ngăn chặn các “rủi ro thảm khốc” từ AI, được định nghĩa rất cụ thể là những sự cố có thể gây ra cái chết của ít nhất 50 người hoặc thiệt hại tài chính vượt quá một tỷ đô la. Dự luật đặc biệt nhắm vào việc hạn chế AI được sử dụng trong các tình huống cực đoan như hỗ trợ tạo vũ khí sinh học hoặc thực hiện các cuộc tấn công mạng quy mô lớn, thay vì các vấn đề gần gũi hơn như deepfake hay tin giả.
Lập trường của Anthropic: Vì sao lại ủng hộ dự luật cấp bang?
Quyết định của Anthropic trong việc ủng hộ SB 53 đã gây ngạc nhiên cho nhiều người, đặc biệt khi các đối thủ cạnh tranh và nhiều tập đoàn công nghệ lớn khác đang kịch liệt phản đối. Lập trường của Anthropic được thể hiện rõ ràng qua tuyên bố của họ: mặc dù họ vẫn ưu tiên một tiêu chuẩn quản lý AI ở cấp liên bang, nhưng họ nhận thức được rằng quá trình này ở Washington đang diễn ra quá chậm chạp.
Đồng sáng lập Anthropic, Jack Clark, đã nhấn mạnh rằng ngành công nghệ không thể chờ đợi chính phủ liên bang hành động trong khi các hệ thống AI mạnh mẽ đang được xây dựng nhanh chóng. Đối với Anthropic, SB 53 cung cấp một “kế hoạch chi tiết vững chắc” cho quản trị AI, cho phép các biện pháp an toàn được thực hiện ngay lập tức ở cấp bang trong khi chờ đợi một khung pháp lý toàn diện hơn ở cấp quốc gia. Đây là một động thái chiến lược cho thấy sự sẵn lòng của Anthropic trong việc tiên phong thiết lập các tiêu chuẩn an toàn, ngay cả khi điều đó có nghĩa là đi ngược lại xu hướng chung của ngành.
Cuộc chiến pháp lý: Phản ứng từ các ông lớn công nghệ và chính phủ
Dự luật SB 53 đã vấp phải sự phản đối mạnh mẽ từ nhiều phía, tạo nên một cuộc chiến pháp lý phức tạp. Các tổ chức như Hiệp hội Công nghệ Tiêu dùng (CTA) và Chamber for Progress đã tích cực vận động hành lang chống lại dự luật. Các nhà đầu tư lớn từ Thung lũng Silicon như Andreessen Horowitz và Y Combinator cũng bày tỏ lo ngại, cho rằng các quy định cấp bang có thể cản trở sự đổi mới và khả năng cạnh tranh của Mỹ trong cuộc đua AI toàn cầu, đặc biệt là với Trung Quốc.
Chính quyền Trump cũng đã đe dọa sẽ chặn các bang ban hành quy định về AI, nhấn mạnh tầm quan trọng của một cách tiếp cận thống nhất ở cấp liên bang. Một trong những lập luận pháp lý chính chống lại SB 53 là nó có thể vi phạm Điều khoản Thương mại của Hiến pháp Mỹ, vốn giới hạn quyền của các bang trong việc ban hành luật ảnh hưởng đến thương mại liên bang. Ngay cả OpenAI, một đối thủ lớn của Anthropic, cũng đã gửi thư tới Thống đốc Newsom, bày tỏ lo ngại về việc các quy định AI có thể đẩy các công ty khởi nghiệp ra khỏi California.
Triển vọng của SB 53: Một cách tiếp cận “khiêm tốn” hơn?
Bất chấp những tranh cãi và phản đối gay gắt, nhiều chuyên gia chính sách tin rằng SB 53 có cơ hội tốt để trở thành luật, một phần nhờ vào cách tiếp cận được cho là “khiêm tốn” hơn so với các dự luật an toàn AI trước đây. Dean Ball, cựu cố vấn chính sách AI của Nhà Trắng, đã ca ngợi những người soạn thảo SB 53 vì đã “thể hiện sự tôn trọng thực tế kỹ thuật” và “mức độ kiềm chế lập pháp.”
Một yếu tố quan trọng khác là sự ảnh hưởng từ hội đồng chuyên gia chính sách do Thống đốc Newsom triệu tập, đồng chủ trì bởi nhà nghiên cứu hàng đầu Fei-Fei Li. Hội đồng này đã tư vấn cho California về cách điều chỉnh AI, và các khuyến nghị của họ có thể đã định hình SB 53 trở nên thực tế và khả thi hơn. Đáng chú ý, các nhà lập pháp California cũng đã sửa đổi dự luật vào tháng 9, loại bỏ yêu cầu kiểm toán bên thứ ba – một điểm gây tranh cãi lớn mà các công ty công nghệ thường phản đối vì cho rằng nó quá nặng nề. Những thay đổi này cho thấy một nỗ lực nhằm dung hòa các mối quan tâm, tăng khả năng dự luật được thông qua.
Dự luật SB 53 của California, với sự ủng hộ bất ngờ từ Anthropic, đang định hình một cuộc tranh luận sôi nổi về tương lai của quản trị AI. Nó đặt ra câu hỏi lớn về sự cân bằng giữa đổi mới và an toàn, cũng như vai trò của các chính phủ cấp bang và liên bang trong việc điều chỉnh một công nghệ có sức ảnh hưởng toàn cầu. Dù kết quả cuối cùng ra sao, động thái này đã tạo ra một tiền lệ quan trọng, thúc đẩy các cuộc thảo luận sâu rộng hơn về trách nhiệm của các nhà phát triển AI và sự cần thiết của một khung pháp lý vững chắc để đảm bảo AI phục vụ lợi ích tốt nhất cho nhân loại. Chúng ta hãy cùng theo dõi để xem liệu California có thể trở thành hình mẫu tiên phong trong việc thiết lập các tiêu chuẩn an toàn cho AI hay không.