Microsoft: ‘Copilot chỉ cho mục đích giải trí’

“Copilot chỉ dùng cho mục đích giải trí. Nó có thể mắc lỗi và có thể không hoạt động như mong muốn. Đừng dựa vào Copilot cho lời khuyên quan trọng. Nếu dùng Copilot, bạn tự chịu mọi rủi ro”, bản cập nhật điều khoản sử dụng Copilot, đã được đưa ra cuối năm ngoái nhưng đang lan truyền trên mạng, có đoạn.

Trên mạng xã hội như X và Reddit, nhiều người tỏ ra ngạc nhiên, nhận xét điều này giống với những gì họ thường nghe trước buổi xem bói. “Một công ty không dám bảo đảm về độ chính xác của sản phẩm thì đó không phải dấu hiệu tốt. Nếu Microsoft còn không tin Copilot, tại sao tôi phải tin?”, một người dùng Reddit nói.

Điều khoản cũng mâu thuẫn với chiến dịch quảng cáo rầm rộ của Microsoft. Hãng đã đầu tư hàng tỷ USD để tích hợp Copilot vào Windows 11, bộ ứng dụng văn phòng Microsoft 365, thậm chí hợp tác với các nhà sản xuất tung ra dòng máy tính Copilot+ PC nhằm thay đổi cách con người làm việc.

Theo trang công nghệ Tom’s Hardware, tuyên bố của Microsoft nhiều khả năng chỉ “mang tính chất miễn trừ”. Có nghĩa, điều khoản được bổ sung để bảo vệ họ trước các vụ kiện có thể xảy ra trong tương lai. Tuy nhiên, điều này cũng bộc lộ mặt trái: trong khi nỗ lực thuyết phục người dùng trả phí để mua AI tăng năng suất, các công ty công nghệ cũng lại tìm cách giảm thiểu trách nhiệm pháp lý đối với những rủi ro mà AI của họ mang lại.

Copilot là thương hiệu đồng nhất về chatbot AI trên các dịch vụ của Microsoft.

Thực tế, không chỉ Microsoft, các công ty lớn và chuyên gia cũng cảnh báo tương tự, rằng mô hình ngôn ngữ lớn vẫn thường xuyên gặp tình trạng ảo giác, cung cấp thông tin sai lệch, xúc phạm hoặc không phản ánh đúng sự thật nhưng lại được trình bày dưới một giọng văn rất thuyết phục.

Việc xem câu trả lời của AI là chính xác dẫn đến nhiều rắc rối trong thực tế. Ví dụ, ngay cả tập đoàn công nghệ hàng đầu như Amazon cũng từng ghi nhận sự cố gián đoạn dịch vụ AWS cuối 2025, được cho là do kỹ sư để AI tự sửa lỗi mà không có sự giám sát. Nhiều lỗi trên website Amazon cũng được xác định có liên quan đến thay đổi do AI tạo ra, buộc các kỹ sư phải họp khẩn để xử lý, theo FT.

Giới chuyên gia từng cảnh báo hiện tượng “định kiến tự động hóa”, tức con người có xu hướng tin vào kết quả do máy móc tạo ra và phớt lờ dữ liệu thực tế. AI khiến tình trạng này trở nên trầm trọng hơn vì có khả năng tạo ra nội dung trông rất hợp lý nếu chỉ nhìn lướt qua. Do đó, người dùng phải giữ sự hoài nghi cần thiết, luôn kiểm tra kết quả và coi đó là công cụ hỗ trợ thay vì một thực thể có trách nhiệm giải trình cho các sai sót.

Huy Đức (Theo Tom’s Hardware, TechRadar)


 

Source

Để lại một bình luận