Nôm na thì Nvidia sẽ dùng GPU của họ để chạy các tác vụ AI nhằm cải thiện quá trình phát triển chip đồ họa.
Trong quá trình ứng dụng AI (trí thông minh nhân tạo), Nvidia cũng đã tìm ra nhiều công dụng khác cho AI trong khâu phát triển chip, thậm chí là cho nó thiết kế luôn phần cứng mới cũng được. Bill Dally – Trưởng nhóm khoa học của Nvidia – cho biết họ có thể ứng dụng AI theo nhiều cách khác nhau.
Cách đầu tiên, và cũng là cách dễ thấy nhất, là họ sẽ tận dụng những công cụ thiết kế có sẵn được hỗ trợ bởi máy tính. Chẳng hạn, Nvidia có 1 thiết bị dùng để vạch ra một bản đồ về những khu vực sử dụng điện trên GPU, và dự đoán xem mức điện áp sẽ bị giảm như thế nào. Nếu dùng công cụ CAD truyền thống thì quá trình này có thể mất tới 3 tiếng đồng hồ.
Thay vào đó, Nvidia muốn huấn luyện một mô hình AI để lấy dữ liệu giống y như vậy trên nhiều thiết kế khác nhau, sau đó họ sẽ nạp bản đồ điện áp vào cho nó. Thời gian suy luận (inference) chỉ mất có 3 giây mà thôi, còn tính thêm thời gian trích xuất thì tầm 18 phút. Kết quả là họ sẽ có được các số liệu ước tính rất chính xác về mức điện áp trong một khoảng thời gian ngắn hơn nhiều so với phương pháp truyền thống.
Một cách ứng dụng khác nữa là dự đoán các “parasitic” – những yếu tố không mong muốn nằm trong linh kiện có khả năng hoạt động không hiệu quả hoặc khiến một thứ gì đó hoạt động không ổn định. Thay vì dùng sức người để xác định những yếu tố này thì Nvidia có thể dùng AI để rút ngắn các bước trong quy trình thiết kế mạch điện.
Hơn nữa, AI còn có thể giúp Nvidia đưa ra những quyết định quan trọng trong khâu thiết kế cách bố trí các con chip. Nôm na thì bạn có thể hiểu mục đích của khâu này là để tránh tình trạng “kẹt xe”, mà xe ở đây là các bóng bán dẫn. AI có thể cảnh báo trước cho các nhà thiết kế biết những vị trí có thể xảy ra “kẹt xe”, từ đó giúp tiết kiệm nhiều thời gian về mặt lâu dài.
Một công dụng khác của AI cũng thú vị không kém, đó là tự động hóa quá trình “standard cell migration”. Cơ bản thì đây là một phương pháp dùng để tự động hóa quá trình di chuyển một “cell” (thành phần cơ bản của một con chip máy tính) sang tiến trình mới.
Cứ mỗi lần Nvidia có tiến trình mới, chẳng hạn như từ 7 nm lên 5 nm, là họ sẽ có một thư viện chứa hàng ngàn “cell” cần phải được chuyển sang tiến trình mới bằng những bộ quy tắc thiết kế rất phức tạp. Bằng cách ứng dụng AI với phương pháp học theo kiểu “reinforcement”, nó có thể hỗ trợ Nvidia rà soát và sửa chữa các lỗi trong khâu thiết kế.
Lợi ích của việc này là giúp công ty tiết kiệm được rất nhiều nhân công. AI có thể xử lý tác vụ này trong vòng vài ngày, còn con người thì có thể dành thời gian đó nghiên cứu cách để tăng tính hiệu quả của AI. Kết quả là Nvidia sẽ có được những sản phẩm còn tốt hơn cả con người thiết kế.
Nói một cách vui vẻ thì Nvidia sẽ dùng GPU của họ để chạy các tác vụ AI nhằm cải thiện quá trình phát triển GPU. Ngoài ra, việc này còn cho phép Nvidia bán công nghệ AI cho các khách hàng của họ – những người sẽ dùng chính GPU của Nvidia để chạy các tác vụ AI. Vì thế nên có thể xem như đây là một quyết định vẹn cả đôi đường.
Tóm tắt ý chính:
- Nvidia muốn ứng dụng AI vào khâu phát triển GPU để cải thiện quá trình thiết kế
- Có nhiều cách để làm việc này, trong đó cách thú vị nhất là tự động hóa quá trình chuyển các “cell” từ tiến trình cũ sang tiến trình mới
- Điều này giúp Nvidia tiết kiệm được rất nhiều thời gian, nhân công, và tạo ra những sản phẩm còn tốt hơn cả con người thiết kế
Mời các bạn tham khảo thêm một số thông tin liên quan tại GVN 360 như:
- GPU Nvidia thế hệ mới có thể trang bị VRAM GDDR6X siêu nhanh lên đến 24Gbps
- Nvidia thừa nhận RTX 3050 còn yếu hơn cả RTX 2060 đã 3 năm tuổi
- GPU Trung Quốc Fenghua No.1 với hiệu năng “vượt trội” tự tin đối đầu Nvidia RTX 3060
Nguồn: PC Gamer
Mời các bạn theo dõi fanpage của chúng mình theo đường link dưới đây để cập nhật những tin tức về game, công nghệ và nhiều thông tin thú vị khác nữa nhé!