Các nhà nghiên cứu tại Microsoft, cùng với Đại học bang Arizona, gần đây đã công bố một môi trường mô phỏng tiên tiến được thiết kế để kiểm tra các AI agent. Nghiên cứu này đồng thời chỉ ra rằng các mô hình agent hiện tại có thể dễ bị thao túng, đặt ra những câu hỏi quan trọng về hiệu suất của chúng khi hoạt động mà không có sự giám sát, cũng như khả năng các công ty AI hiện thực hóa lời hứa về một tương lai đầy đủ agent.
Môi trường mô phỏng này, được Microsoft đặt tên là “Magentic Marketplace”, là một nền tảng tổng hợp để thử nghiệm hành vi của các AI agent. Một thử nghiệm điển hình có thể liên quan đến một agent khách hàng cố gắng đặt bữa tối theo hướng dẫn của người dùng, trong khi các agent đại diện cho nhiều nhà hàng khác nhau cạnh tranh để giành được đơn hàng. Đây là một cách tiếp cận thực tế để mô phỏng tương tác phức tạp trong môi trường kinh doanh.
Các thử nghiệm ban đầu của nhóm nghiên cứu bao gồm 100 agent phía khách hàng tương tác với 300 agent phía doanh nghiệp. Mã nguồn của thị trường ảo này được công bố mã nguồn mở, tạo điều kiện thuận lợi cho các nhóm khác áp dụng để chạy thử nghiệm mới hoặc tái tạo kết quả. Nghiên cứu này đã xem xét sự kết hợp của các mô hình hàng đầu như GPT-4o, GPT-5 và Gemini-2.5-Flash, và phát hiện ra một số điểm yếu đáng ngạc nhiên.
Cụ thể, các nhà nghiên cứu nhận thấy nhiều kỹ thuật mà các doanh nghiệp có thể sử dụng để thao túng các agent khách hàng mua sản phẩm của họ. Một điểm yếu rõ rệt là sự sụt giảm hiệu quả khi một agent khách hàng được cung cấp quá nhiều lựa chọn, khiến không gian chú ý của agent bị quá tải. Bà Ece Kamar, Phó chủ tịch và Giám đốc điều hành Phòng thí nghiệm AI Frontiers của Microsoft Research, nhấn mạnh rằng các mô hình hiện tại đang thực sự bị choáng ngợp bởi quá nhiều lựa chọn, mặc dù chúng được kỳ vọng sẽ giúp chúng ta xử lý lượng lớn thông tin.
Các agent cũng gặp khó khăn khi được yêu cầu cộng tác để đạt được một mục tiêu chung, dường như không chắc chắn về vai trò của từng agent trong quá trình hợp tác. Mặc dù hiệu suất được cải thiện khi các mô hình nhận được hướng dẫn rõ ràng hơn về cách cộng tác, các nhà nghiên cứu vẫn nhận thấy rằng khả năng nội tại của các mô hình cần được cải thiện đáng kể. Bà Kamar kỳ vọng các mô hình này sẽ có những khả năng cộng tác mặc định, chứ không chỉ dựa vào hướng dẫn từng bước.
Nghiên cứu của Microsoft đã mở ra cái nhìn sâu sắc về những thách thức hiện tại của các AI agent, đặc biệt là về khả năng chống thao túng, xử lý thông tin phức tạp và cộng tác hiệu quả. Những phát hiện này không chỉ cung cấp dữ liệu quan trọng cho việc phát triển AI trong tương lai mà còn nhắc nhở chúng ta về sự cần thiết phải tiếp cận một cách thận trọng và kỹ lưỡng khi xây dựng các hệ thống agent tự chủ, đảm bảo chúng thực sự đáng tin cậy và hữu ích cho người dùng.




