Texas AG Nhắm Vào Meta, Character.AI

Hàng loạt cáo buộc thương mại gian dối nhắm vào Meta và Character.AI đang gây chấn động Texas; sự thật đằng sau vụ điều tra là gì?

Vừa qua, Texas AG Ken Paxton đã mở cuộc điều tra đối với Meta AI Studio và Character.AI với cáo buộc về các hành vi thương mại gian dối và tiếp thị sai lệch liên quan đến sản phẩm AI dành cho trẻ em. Động thái này xuất phát từ những lo ngại về ảnh hưởng tiêu cực của chatbot AI đối với tâm lý trẻ vị thành niên. Vấn đề đặt ra là liệu các công cụ này có thực sự an toàn và minh bạch như quảng cáo hay không, đặc biệt trong bối cảnh các quy định về công nghệ AI ngày càng được siết chặt.

Những điểm chính

  • Texas Attorney General Ken Paxton điều tra Meta AI Studio và Character.AI về hành vi thương mại gian dối và tiếp thị sai lệch.
  • Cuộc điều tra tập trung vào việc bảo vệ trẻ em Texas khỏi chatbot AI có thể gây hại về sức khỏe tâm thần.
  • Meta và Character.AI bị xem xét vì quảng bá chatbot như trợ giúp sức khỏe tâm thần nhưng thiếu chứng nhận y tế.
  • Các nền tảng thu thập dữ liệu người dùng, gây lo ngại về quyền riêng tư và bảo mật thông tin cá nhân trẻ em.
  • Paxton yêu cầu điều tra dân sự để làm rõ vi phạm luật bảo vệ người tiêu dùng của Texas liên quan đến AI.

Texas Attorney General Ken Paxton đã chính thức khởi động cuộc điều tra đối với Meta AI StudioCharacter.AI, với cáo buộc liên quan đến các hành vi thương mại gian dốitiếp thị sai lệch các nền tảng AI này như công cụ hỗ trợ sức khỏe tâm thần, đặc biệt nhắm vào việc bảo vệ trẻ em Texas khỏi công nghệ có thể khai thác và gây tổn hại. Ông Paxton nhấn mạnh rằng những nền tảng này đã gây hiểu lầm cho người dùng dễ bị tổn thương, nhất là trẻ em, về khả năng và mục đích thực sự của các chatbot AI trong việc chăm sóc sức khỏe tâm thần. Cuộc điều tra được tiến hành sau khi Thượng nghị sĩ Josh Hawley đặt vấn đề về các tương tác không phù hợp giữa Meta và trẻ em.

Meta AI Studio và Character.AI hiện bị xem xét về cách thức tiếp thị và vận hành các công cụ AI, vốn được quảng bá như những trợ giúp cho sức khỏe tâm thần nhưng chưa có chứng nhận hay giám sát y tế đầy đủ. Các chatbot do người dùng tạo ra trên Character.AI, bao gồm cả bot “Psychologist” nổi tiếng, được cho là có thể gây nhầm lẫn cho trẻ nhỏ khi tiếp nhận thông tin không chính xác hoặc không phù hợp. Trong khi Meta không có bot chuyên trị liệu dành cho trẻ em, công ty vẫn cho phép trẻ sử dụng các chatbot AI của mình, kèm theo các cảnh báo và tuyên bố từ chối trách nhiệm về tính chất không chuyên môn của phản hồi AI. Tuy nhiên, những cảnh báo này có thể không đủ để trẻ em hiểu rõ giới hạn của công nghệ.

Vấn đề về quyền riêng tư cũng được đặt ra khi các nền tảng này thu thập dữ liệu người dùng, bao gồm tương tác và thông tin cá nhân, nhằm cải thiện AI và phục vụ quảng cáo cá nhân hóa. Paxton chỉ ra sự mâu thuẫn khi các chatbot khẳng định tính bảo mật trong khi thực tế dữ liệu vẫn bị lưu giữ và chia sẻ. Cả Meta và Character.AI đều tuyên bố dịch vụ không dành cho trẻ dưới 13 tuổi, nhưng thực tế nhiều tài khoản của nhóm tuổi này vẫn hoạt động mà không có sự kiểm soát chặt chẽ. Điều này làm dấy lên lo ngại về việc tuân thủ luật pháp và bảo vệ quyền lợi trẻ em.

Hiện tại, Paxton đã gửi yêu cầu điều tra dân sự nhằm thu thập tài liệu từ hai công ty để làm rõ các vi phạm tiềm năng về luật bảo vệ người tiêu dùng của Texas. Cuộc điều tra này có thể ảnh hưởng lớn đến tương lai của các quy định liên quan đến AI và ứng dụng trong lĩnh vực sức khỏe tâm thần, nhất là khi dự luật KOSA đang được đưa trở lại Thượng viện nhằm tăng cường bảo vệ trẻ em trước các công nghệ số. Các hành động pháp lý và sự giám sát ngày càng tăng từ phía chính quyền Texas phản ánh mối quan ngại sâu sắc về tác động của AI đối với nhóm người dùng dễ bị tổn thương nhất.

Share your love
Gọi ngay Chat