Số liệu từ Tổ chức Internet Watch Foundation (IWF) cho thấy chỉ trong nửa đầu năm 2025, hơn 8.000 báo cáo về nội dung lạm dụng tình dục trẻ em do trí tuệ nhân tạo tạo ra đã được ghi nhận, tăng 14% so với năm trước đó. Thực trạng này phản ánh một xu hướng nguy hiểm khi tội phạm sử dụng các công cụ AI để tạo ra hình ảnh nhạy cảm giả mạo nhằm mục đích tống tiền hoặc thiết lập các cuộc hội thoại mang tính chất dụ dỗ (grooming) trẻ vị thành niên.
Để đối phó với những rủi ro đang leo thang, OpenAI đã chính thức công bố Kế hoạch Bảo vệ Trẻ em (Child Safety Blueprint) nhằm nâng cao hiệu quả phát hiện, báo cáo và điều tra các hành vi bóc lột trẻ em trong môi trường số. Tài liệu này được xây dựng thông qua sự hợp tác với Trung tâm Quốc gia về Trẻ em Mất tích và bị Bóc lột (NCMEC), Liên minh Tổng chưởng lý Hoa Kỳ cùng các cố vấn pháp lý từ bang North Carolina và Utah.
Chiến lược mới của hãng tập trung vào ba khía cạnh then chốt: cập nhật các quy định pháp luật để bao quát cả những tài liệu lạm dụng do AI tạo ra, tinh chỉnh cơ chế phối hợp với cơ quan thực thi pháp luật và tích hợp trực tiếp các hàng rào bảo vệ ngăn chặn vào hệ thống cốt lõi. Bằng cách này, OpenAI đặt mục tiêu không chỉ nhận diện mối đe dọa sớm hơn mà còn đảm bảo các thông tin có giá trị thực tiễn được chuyển đến cơ quan điều tra một cách kịp thời.
Động thái này cũng là nỗ lực của OpenAI nhằm giải quyết những lo ngại từ các nhà hoạch định chính sách sau một số sự cố nghiêm trọng liên quan đến sức khỏe tâm thần của người dùng trẻ tuổi. Vào tháng 11 năm ngoái, nhiều vụ kiện tại California đã cáo buộc mô hình GPT-4o có tính chất thao túng tâm lý, liên quan trực tiếp đến các trường hợp người dùng gặp ảo giác nặng hoặc có hành vi tự hại. Các tổ chức bảo vệ quyền lợi nạn nhân cho rằng sản phẩm đã được phát hành khi các biện pháp an toàn chưa thực sự hoàn thiện.
Bên cạnh kế hoạch mới, OpenAI vẫn duy trì các nguyên tắc nghiêm ngặt đối với nhóm người dùng dưới 18 tuổi, bao gồm việc cấm tạo nội dung không phù hợp và ngăn chặn các lời khuyên giúp trẻ em che giấu hành vi không an toàn trước người giám hộ. Những bước đi này được kế thừa từ các sáng kiến trước đó, tương tự như mô hình bảo vệ thanh thiếu niên mà công ty đã triển khai tại thị trường Ấn Độ, nhằm tạo ra một hệ sinh thái AI an toàn và có trách nhiệm hơn.




