Trong bối cảnh trí tuệ nhân tạo (AI) ngày càng len lỏi vào đời sống, đặc biệt là với giới trẻ, những lo ngại về sự an toàn và tác động của nó đang trở nên cấp thiết hơn bao giờ hết. Mới đây, Common Sense Media (CSM) – một tổ chức phi lợi nhuận chuyên đánh giá truyền thông và công nghệ tập trung vào an toàn trẻ em – đã công bố báo cáo đánh giá rủi ro đối với các sản phẩm AI Gemini của Google. Kết quả không mấy lạc quan: Gemini đã bị dán nhãn “rủi ro cao” (high risk) cho cả trẻ em và thanh thiếu niên. Mặc dù tổ chức này ghi nhận một điểm cộng đáng giá là Gemini đã nói rõ với trẻ em rằng nó là một máy tính chứ không phải một người bạn – điều quan trọng giúp ngăn ngừa tư duy hoang tưởng ở những cá nhân dễ bị tổn thương về mặt cảm xúc – nhưng báo cáo cũng chỉ ra nhiều khía cạnh khác cần được cải thiện đáng kể. Đây là một hồi chuông cảnh tỉnh, cho thấy công nghệ AI, dù mạnh mẽ đến đâu, vẫn cần được thiết kế với sự cẩn trọng tối đa, đặc biệt khi tương tác với những đối tượng dễ bị tổn thương nhất trong xã hội.
Nội dung chính
Những lo ngại chính từ Common Sense Media
Báo cáo của Common Sense Media đã bóc tách một thực tế đáng lo ngại: các phiên bản Gemini dành cho trẻ dưới 13 tuổi và “Trải nghiệm thanh thiếu niên” dường như chỉ là phiên bản dành cho người lớn được “đội lốt” với một vài tính năng an toàn bổ sung. Theo CSM, để một sản phẩm AI thực sự an toàn cho trẻ em, nó cần được xây dựng với sự an toàn của trẻ em làm trọng tâm ngay từ đầu, chứ không phải là một bản chỉnh sửa từ sản phẩm dành cho người lớn. Ví dụ, phân tích của tổ chức này chỉ ra rằng Gemini vẫn có thể chia sẻ các tài liệu “không phù hợp và không an toàn” với trẻ em, bao gồm thông tin liên quan đến tình dục, ma túy, rượu và cả những lời khuyên sức khỏe tâm thần không an toàn mà trẻ em có thể chưa sẵn sàng tiếp nhận.
Điều này đặc biệt đáng quan ngại đối với các bậc phụ huynh, khi mà AI được cho là đã đóng vai trò trong một số vụ tự tử ở thanh thiếu niên gần đây. OpenAI đang phải đối mặt với vụ kiện tử vong sai trái đầu tiên sau khi một cậu bé 16 tuổi tự tử sau khi được cho là đã tham khảo ý kiến của ChatGPT trong nhiều tháng về kế hoạch của mình, đã thành công vượt qua các rào cản an toàn của chatbot. Trước đó, nhà sản xuất AI đồng hành Character.AI cũng bị kiện vì vụ tự tử của một người dùng tuổi teen. Hơn nữa, việc Apple đang cân nhắc Gemini làm mô hình ngôn ngữ lớn (LLM) để cung cấp năng lượng cho Siri hỗ trợ AI sắp ra mắt vào năm tới có thể khiến nhiều thanh thiếu niên tiếp xúc với những rủi ro này, trừ khi Apple có biện pháp giảm thiểu các mối lo ngại về an toàn. Như Robbie Torney, Giám đốc cấp cao Chương trình AI của Common Sense Media, đã nhấn mạnh: “Một nền tảng AI dành cho trẻ em nên đáp ứng nhu cầu của chúng, chứ không phải áp dụng cách tiếp cận một kích thước phù hợp cho tất cả trẻ em ở các giai đoạn phát triển khác nhau.”
Phản hồi của Google và bối cảnh rộng hơn về an toàn AI
Trước những đánh giá này, Google đã phản bác, đồng thời khẳng định rằng các tính năng an toàn của họ đang được cải thiện. Công ty đã chia sẻ với TechCrunch rằng họ có các chính sách và biện pháp bảo vệ cụ thể cho người dùng dưới 18 tuổi nhằm ngăn chặn các đầu ra có hại, đồng thời thường xuyên kiểm tra nội bộ và tham khảo ý kiến từ các chuyên gia bên ngoài để nâng cao khả năng bảo vệ. Google cũng thừa nhận rằng một số phản hồi của Gemini không hoạt động như mong đợi và đã bổ sung các biện pháp bảo vệ để giải quyết những lo ngại đó. Công ty cũng chỉ ra rằng họ có các biện pháp bảo vệ để ngăn chặn mô hình của mình tham gia vào các cuộc trò chuyện có thể tạo ra cảm giác về các mối quan hệ thực sự, điều mà Common Sense Media cũng đã ghi nhận. Tuy nhiên, Google cũng cho rằng báo cáo của Common Sense có thể đã đề cập đến các tính năng không khả dụng cho người dùng dưới 18 tuổi, nhưng họ không có quyền truy cập vào các câu hỏi mà tổ chức đã sử dụng trong các bài kiểm tra của mình để xác minh.
Đây không phải là lần đầu tiên Common Sense Media thực hiện các đánh giá về dịch vụ AI. Tổ chức này đã từng đánh giá các dịch vụ từ OpenAI, Perplexity, Claude, Meta AI và nhiều hãng khác. Trong các đánh giá trước đó, Meta AI và Character.AI bị coi là “không thể chấp nhận được” (unacceptable) do mức độ rủi ro nghiêm trọng. Perplexity được xếp hạng “rủi ro cao”, ChatGPT ở mức “trung bình”, còn Claude (nhắm mục tiêu người dùng từ 18 tuổi trở lên) được đánh giá là “rủi ro tối thiểu”. Bối cảnh này cho thấy vấn đề an toàn AI, đặc biệt là với trẻ em và thanh thiếu niên, là một thách thức chung mà toàn ngành công nghệ đang phải đối mặt, đòi hỏi sự hợp tác và phát triển liên tục để bảo vệ người dùng trẻ tuổi.
Đánh giá của Common Sense Media về Google Gemini là một lời nhắc nhở mạnh mẽ rằng dù AI mang lại nhiều tiện ích, việc thiết kế nó cho trẻ em và thanh thiếu niên đòi hỏi một cách tiếp cận hoàn toàn khác biệt. Rủi ro cao được xác định không chỉ do khả năng chia sẻ nội dung không phù hợp mà còn do việc thiếu đi sự thấu hiểu về các giai đoạn phát triển khác nhau của trẻ. Để đảm bảo an toàn thực sự, các nhà phát triển AI cần ưu tiên xây dựng sản phẩm với tư duy “trẻ em là trên hết” ngay từ những bước đầu tiên. Các bậc phụ huynh và người dùng nên tiếp tục theo dõi sát sao những phát triển này, đồng thời chủ động giáo dục con em mình về cách tương tác an toàn với AI, cho đến khi các công nghệ này thực sự được tối ưu hóa để bảo vệ thế hệ trẻ.