Thống đốc California Gavin Newsom vừa ký thành luật dự luật quan trọng SB 243 vào thứ Hai, biến California thành bang đầu tiên trên toàn quốc yêu cầu các nhà vận hành chatbot AI đồng hành phải thực hiện nghiêm ngặt các giao thức an toàn. Đạo luật này được thiết kế để bảo vệ trẻ em và những người dùng dễ bị tổn thương khỏi những tác hại liên quan đến việc sử dụng chatbot AI đồng hành, đặt trách nhiệm pháp lý lên các công ty từ Meta, OpenAI đến các startup như Character AI và Replika.
SB 243, được giới thiệu vào tháng 1 bởi các thượng nghị sĩ Steve Padilla và Josh Becker, đã nhận được sự ủng hộ mạnh mẽ sau cái chết thương tâm của Adam Raine, một thiếu niên đã tự tử sau một loạt cuộc trò chuyện về ý định tự tử với ChatGPT của OpenAI. Dự luật cũng phản ứng với các tài liệu nội bộ bị rò rỉ cho thấy chatbot của Meta được phép tham gia vào các cuộc trò chuyện “lãng mạn” và “gợi cảm” với trẻ em, cùng với vụ kiện gần đây chống lại Character AI sau khi một thiếu nữ 13 tuổi ở Colorado tự kết liễu đời mình.
Thống đốc Newsom khẳng định: “Công nghệ mới nổi như chatbot và mạng xã hội có thể truyền cảm hứng, giáo dục và kết nối, nhưng không có rào cản thực sự, công nghệ cũng có thể khai thác, lừa dối và gây nguy hiểm cho con cái chúng ta.” Ông nhấn mạnh rằng California sẽ không đứng nhìn các công ty tiếp tục hoạt động mà thiếu giới hạn và trách nhiệm giải trình cần thiết, cam kết dẫn đầu về AI một cách có trách nhiệm, đồng thời bảo vệ trẻ em trong mọi bước đi.
Đạo luật SB 243 sẽ chính thức có hiệu lực vào ngày 1 tháng 1 năm 2026, yêu cầu các công ty phải triển khai nhiều tính năng bảo vệ. Các yêu cầu bao gồm xác minh độ tuổi, đưa ra cảnh báo về chatbot, thiết lập quy trình xử lý các trường hợp tự tử và tự làm hại bản thân, đồng thời chia sẻ số liệu thống kê với Bộ Y tế Công cộng. Ngoài ra, chatbot phải minh bạch rõ ràng rằng mọi tương tác đều do AI tạo ra, không được mạo danh chuyên gia chăm sóc sức khỏe, và phải cung cấp lời nhắc nghỉ ngơi cho trẻ vị thành niên cũng như ngăn chặn chúng xem hình ảnh khiêu dâm do chatbot tạo ra.
Một số công ty đã chủ động thực hiện các biện pháp bảo vệ trẻ em, điển hình như OpenAI đã triển khai kiểm soát của phụ huynh và hệ thống phát hiện tự làm hại cho ChatGPT. Replika và Character AI cũng cam kết tuân thủ các quy định hiện hành, với Character AI đã đưa ra tuyên bố từ chối trách nhiệm rằng tất cả các cuộc trò chuyện đều do AI tạo ra và mang tính hư cấu. Thượng nghị sĩ Padilla đánh giá dự luật là “bước đi đúng hướng” để đặt ra các rào cản cho một công nghệ mạnh mẽ và hy vọng các bang khác cũng sẽ hành động.
SB 243 là quy định AI quan trọng thứ hai của California trong những tuần gần đây, sau khi Thống đốc Newsom ký dự luật SB 53 vào ngày 29 tháng 9, thiết lập yêu cầu minh bạch mới đối với các công ty AI lớn và bảo vệ người tố giác. Các bang khác như Illinois, Nevada và Utah cũng đã thông qua luật hạn chế hoặc cấm sử dụng chatbot AI như một sự thay thế cho dịch vụ chăm sóc sức khỏe tâm thần có giấy phép.
Đạo luật SB 243 của California không chỉ thiết lập một tiêu chuẩn mới về an toàn và trách nhiệm giải trình trong lĩnh vực AI đồng hành mà còn là một lời nhắc nhở mạnh mẽ về sự cần thiết của việc điều chỉnh công nghệ. Nó khẳng định rằng việc phát triển AI phải luôn đặt lợi ích và sự an toàn của người dùng, đặc biệt là trẻ em và những đối tượng dễ bị tổn thương, lên hàng đầu. Đây là một bước tiến quan trọng để đảm bảo công nghệ phục vụ con người một cách an toàn và có đạo đức.