Bằng cách phân tích nội dung những đoạn chat trong Counter-Strike: Global Offensive (CS:GO), một công cụ AI đã thẳng tay xóa sổ 20.000 tài khoản có dấu hiệu “toxic” dù chỉ mới được đưa vào hoạt động 6 tuần.
Công cụ này có tên gọi là Minerva, được phát triển dưới sự hợp tác giữa đội ngũ đứng sau FACEIT – nhà tổ chức sự kiện CS:GO London Major năm 2018 – và Google Cloud cùng với Jigsaw, một dự án công nghệ cũng thuộc Google.
Minerva bắt đầu phân tích những đoạn chat trong CS:GO vào cuối tháng 8. Và chỉ trong vòng một tháng rưỡi, Minerva đã phát hiện ra 7.000.000 đoạn tin nhắn có nội dung “toxic”, gửi 90.000 lời cảnh báo, và khóa (ban) 20.000 tài khoản.
Được huấn huyện bằng máy học (machine learning), công cụ AI này bước đầu sẽ gửi thông báo đến những ai có lời lẽ xúc phạm, miệt thị người chơi khác trong game, và đồng thời đánh dấu tin nhắn đó. Sau khi trận đấu đã diễn ra xong xuôi thì đối tượng đó sẽ nhận được lời cảnh cáo chính thức, hoặc “ăn ban” ngay và luôn. Những đối tượng nào có dấu hiệu càng ngày càng “toxic” thì cũng bị đưa vào danh sách mới mức hình phạt càng ngày càng nặng.
Nhờ có Minerva, số lượng tin nhắn “toxic” giảm 20%, và số game thủ có biểu hiện “toxic” cũng giảm đi 8%. FACEIT cho biết đây là bước đầu tiên để đưa Minerva vào nhiều tựa game online hơn, và trong tương lai sẽ có khả năng phát hiện ra tất cả các hành vi lạm dụng trong game.
Tin vui là như thế, nhưng chắc cũng còn phải khá lâu nữa Minerva mới hiểu được anh em người Việt mình nói gì trong game.
Nguồn: PCGamer