Nguồn: Tencent Technology
Đồng sáng lập và Giám đốc điều hành Nvidia Jen-Hsun Huang đã có bài phát biểu quan trọng tại Computerx 2024 (Triển lãm máy tính quốc tế Đài Bắc 2024), chia sẻ kỷ nguyên trí tuệ nhân tạo sẽ thúc đẩy toàn cầu như thế nào cuộc cách mạng công nghiệp mới.
Sau đây là những điểm chính của bài phát biểu này:
① Huang Renxun đã trình diễn phiên bản sản xuất hàng loạt mới nhất của chip Blackwell và nói rằng Blackwell Ultra AI sẽ được ra mắt vào năm 2025 Chip, nền tảng AI thế hệ tiếp theo mang tên Rubin, Rubin Ultra sẽ ra mắt vào năm 2027 và nhịp độ cập nhật sẽ là “mỗi năm một lần” để phá vỡ “Định luật Moore”.
② Huang Renxun tuyên bố rằng Nvidia đã thúc đẩy sự ra đời của các mô hình ngôn ngữ lớn. Nó đã thay đổi kiến trúc GPU sau năm 2012 và tích hợp tất cả các công nghệ mới trên một máy tính.
③ Công nghệ điện toán tăng tốc của Nvidia giúp đạt được tốc độ tăng gấp 100 lần, trong khi mức tiêu thụ điện năng chỉ tăng lên 3 lần và chi phí là 1,5 lần.
④ Huang Renxun dự đoán rằng thế hệ AI tiếp theo sẽ cần hiểu được thế giới vật chất. Phương pháp mà ông đưa ra là để AI học hỏi thông qua video và dữ liệu tổng hợp, đồng thời để AI học hỏi lẫn nhau.
⑤ Huang Renxun thậm chí còn hoàn thiện bản dịch tiếng Trung cho mã thông báo trong PPT - Ci Yuan.
⑥ Huang Renxun nói rằng thời đại của robot đã đến và tất cả các vật thể chuyển động sẽ hoạt động tự chủ trong tương lai.
Sau đây là toàn văn bài phát biểu dài hai giờ được biên soạn của Tencent Technology:
Kính gửi quý khách, tôi rất vinh dự được đứng ở đây một lần nữa. Trước hết, tôi xin cảm ơn Đại học Quốc gia Đài Loan đã cung cấp cho chúng tôi nhà thi đấu này làm nơi tổ chức các sự kiện của chúng tôi. Lần cuối cùng tôi đến đây là khi tôi đang lấy bằng của Đại học Quốc gia Đài Loan. Hôm nay chúng ta sẽ đề cập đến rất nhiều điều nên tôi phải bước lên và truyền tải thông điệp một cách nhanh chóng và rõ ràng. Chúng ta có rất nhiều điều để nói và tôi có rất nhiều câu chuyện thú vị để chia sẻ.
Tôi rất vui khi được đến Đài Loan, Trung Quốc, nơi chúng tôi có nhiều đối tác. Trên thực tế, đây không chỉ là một phần không thể thiếu trong lịch sử phát triển của NVIDIA mà còn là nút thắt quan trọng để chúng tôi hợp tác với các đối tác nhằm thúc đẩy sự đổi mới cho thế giới. Chúng tôi hợp tác với nhiều đối tác để xây dựng cơ sở hạ tầng AI toàn cầu. Hôm nay, tôi muốn thảo luận với bạn một số chủ đề chính:
1) Chúng ta đang đạt được tiến bộ gì trong công việc chung và tầm quan trọng của những tiến bộ này là gì?
2) Trí tuệ nhân tạo tổng hợp chính xác là gì? Nó sẽ tác động như thế nào đến ngành của chúng ta và thậm chí là mọi ngành?
3) Kế hoạch chi tiết về cách chúng ta tiến về phía trước, chúng ta sẽ nắm bắt cơ hội đáng kinh ngạc này như thế nào?
Điều gì xảy ra tiếp theo? AI sáng tạo và những tác động sâu rộng của nó, cũng như kế hoạch chi tiết chiến lược của chúng tôi, là một số chủ đề thú vị mà chúng tôi sắp khám phá. Chúng ta đang đứng ở điểm khởi đầu của sự khởi động lại ngành công nghiệp máy tính và một kỷ nguyên mới do các bạn rèn luyện và tạo ra sắp bắt đầu. Bây giờ bạn đã sẵn sàng cho phần quan trọng tiếp theo của cuộc hành trình.
1. Một kỷ nguyên mới của điện toán đang bắt đầu
Nhưng trước khi bắt đầu thảo luận sâu hơn, tôi muốn nhấn mạnh một điểm: NVIDIA là nằm trong đồ họa máy tính, Ở điểm giao thoa giữa mô phỏng và trí tuệ nhân tạo, điều này tạo nên linh hồn của công ty chúng tôi. Mọi thứ tôi sắp cho bạn xem hôm nay đều dựa trên mô phỏng. Đây không chỉ là những hiệu ứng hình ảnh, đằng sau chúng còn là bản chất của toán học, khoa học và khoa học máy tính cũng như kiến trúc máy tính ngoạn mục. Không có hoạt ảnh nào được tạo sẵn, mọi thứ đều là công việc của nhóm chúng tôi. Đây là những gì NVIDIA hiểu và chúng tôi đã tích hợp tất cả vào thế giới ảo Omniverse mà chúng tôi tự hào. Bây giờ, hãy thưởng thức video!
Mức tiêu thụ điện năng tại các trung tâm dữ liệu trên toàn thế giới đang tăng mạnh, trong khi chi phí điện toán cũng tăng theo. Chúng ta đang phải đối mặt với thách thức nghiêm trọng về sự phình to của máy tính, điều này rõ ràng là không bền vững về lâu dài. Dữ liệu sẽ tiếp tục tăng theo cấp số nhân, nhưng hiệu suất CPU sẽ không tăng nhanh như trước. Tuy nhiên, một phương pháp hiệu quả hơn đang xuất hiện.
Trong hai thập kỷ qua, chúng tôi đã cam kết tăng tốc nghiên cứu máy tính. Công nghệ CUDA tăng cường chức năng của CPU, giảm tải và tăng tốc các tác vụ mà bộ xử lý đặc biệt có thể hoàn thành hiệu quả hơn. Trên thực tế, khi tốc độ mở rộng hiệu suất của CPU chậm lại hoặc thậm chí trì trệ, những lợi ích của tính toán tăng tốc ngày càng trở nên rõ ràng. Tôi dự đoán rằng mọi ứng dụng xử lý chuyên sâu sẽ được tăng tốc và trong tương lai gần, mọi trung tâm dữ liệu sẽ được tăng tốc hoàn toàn.
Giờ đây, việc lựa chọn điện toán tăng tốc là một bước đi khôn ngoan và đã trở thành sự đồng thuận trong ngành . Hãy tưởng tượng một ứng dụng mất 100 đơn vị thời gian để hoàn thành. Dù là 100 giây hay 100 giờ, chúng ta thường không đủ khả năng để chạy các ứng dụng trí tuệ nhân tạo trong nhiều ngày, thậm chí nhiều tháng.
Trong số 100 đơn vị thời gian này, có 1 đơn vị thời gian liên quan đến mã cần được thực thi tuần tự. Tại thời điểm này, tầm quan trọng của CPU đơn luồng là hiển nhiên. Logic điều khiển của hệ điều hành là không thể thiếu và phải được thực hiện đúng theo trình tự lệnh. Tuy nhiên, có nhiều thuật toán như đồ họa máy tính, xử lý ảnh, mô phỏng vật lý, tối ưu hóa tổ hợp, xử lý đồ thị và xử lý cơ sở dữ liệu, đặc biệt là đại số tuyến tính được sử dụng rộng rãi trong học sâu, rất phù hợp để tăng tốc thông qua xử lý song song. Để đạt được mục tiêu này, chúng tôi đã phát minh ra kiến trúc sáng tạo kết hợp hoàn hảo giữa GPU và CPU.
Bộ xử lý chuyên dụng tăng tốc các tác vụ tốn thời gian lên tốc độ đáng kinh ngạc. Vì hai bộ xử lý có thể hoạt động song song nên chúng hoạt động độc lập và tự chủ. Điều này có nghĩa là một nhiệm vụ ban đầu mất 100 đơn vị thời gian để hoàn thành giờ đây có thể chỉ mất 1 đơn vị thời gian để hoàn thành. Mặc dù khả năng tăng tốc này nghe có vẻ khó tin nhưng hôm nay tôi sẽ thử nghiệm nó bằng một loạt ví dụ.
Những lợi ích mà việc cải thiện hiệu suất này mang lại thật đáng kinh ngạc, với khả năng tăng tốc gấp 100 lần , trong khi công suất chỉ tăng khoảng 3 lần và chi phí chỉ tăng khoảng 50%. Chúng tôi đã thực hiện chiến lược này trong ngành công nghiệp PC. Việc thêm GPU GeForce trị giá 500 USD vào PC của bạn có thể tăng đáng kể hiệu suất và tăng giá trị tổng thể lên 1.000 USD. Trong trung tâm dữ liệu, chúng tôi thực hiện cách tiếp cận tương tự. Một trung tâm dữ liệu trị giá một tỷ USD ngay lập tức được chuyển đổi thành nhà máy sản xuất trí tuệ nhân tạo hùng mạnh sau khi bổ sung thêm GPU trị giá 500 triệu USD. Ngày nay, sự chuyển đổi này đang diễn ra trên khắp thế giới.
Tiết kiệm chi phí cũng đáng kinh ngạc không kém. Với mỗi $1 đầu tư, bạn có thể cải thiện hiệu suất lên tới 60 lần. Tăng tốc 100 lần, công suất chỉ tăng gấp 3 lần và chi phí chỉ tăng 1,5 lần. Khoản tiết kiệm là có thật!
Rõ ràng, nhiều công ty chi hàng trăm triệu đô la để xử lý dữ liệu trên đám mây. Khi dữ liệu được tăng tốc, việc tiết kiệm hàng trăm triệu đô la là điều hợp lý. Tại sao cái này rất? Lý do rất đơn giản, chúng ta đã gặp phải tình trạng tắc nghẽn hiệu quả lâu dài trong lĩnh vực điện toán đa năng.
Bây giờ, cuối cùng chúng tôi cũng nhận ra điều này và quyết định tăng tốc. Bằng cách sử dụng bộ xử lý chuyên dụng, chúng tôi có thể lấy lại được nhiều lợi ích về hiệu suất mà trước đây bị bỏ qua, tiết kiệm rất nhiều tiền và năng lượng. Đó là lý do tại sao tôi nói, càng mua nhiều, càng tiết kiệm.
Bây giờ tôi đã cho bạn xem các con số. Mặc dù chúng không chính xác đến vài chữ số thập phân nhưng điều này phản ánh chính xác sự thật. Đây có thể được gọi là "toán CEO". Mặc dù CEO Math không yêu cầu độ chính xác cao nhưng logic đằng sau nó là đúng—bạn mua sức mạnh tính toán càng nhanh thì bạn càng tiết kiệm được nhiều chi phí.
2. Thư viện chức năng 350 giúp mở ra thị trường mới
Kết quả mà tính toán tăng tốc mang lại thực sự phi thường, nhưng quá trình thực hiện không hề dễ dàng . Tại sao mọi người không áp dụng công nghệ này sớm hơn khi nó tiết kiệm được rất nhiều tiền? Nguyên nhân là vì nó quá khó thực hiện.
Không có phần mềm sẵn có nào có thể chạy đơn giản thông qua trình biên dịch được tăng tốc và sau đó ứng dụng sẽ nhanh hơn 100 lần ngay lập tức. Điều này không logic và cũng không thực tế. Nếu dễ như vậy thì các nhà sản xuất CPU đã làm từ lâu rồi.
Trên thực tế, để đạt được khả năng tăng tốc, phần mềm phải được viết lại hoàn toàn. Đây là phần thử thách nhất trong toàn bộ quá trình. Phần mềm cần được thiết kế lại và mã hóa lại để chuyển đổi các thuật toán ban đầu chạy trên CPU sang định dạng có thể chạy song song trên máy gia tốc.
Nghiên cứu khoa học máy tính này rất khó khăn nhưng chúng tôi đã đạt được tiến bộ đáng kể trong 20 năm qua. Ví dụ: chúng tôi đã ra mắt thư viện deep learning cuDNN nổi tiếng, chuyên về tăng tốc mạng thần kinh. Chúng tôi cũng cung cấp một thư viện mô phỏng vật lý trí tuệ nhân tạo, phù hợp cho các ứng dụng như động lực học chất lỏng đòi hỏi phải tuân thủ các định luật vật lý. Ngoài ra, chúng tôi có một thư viện mới tên là Trên không, tận dụng CUDA để tăng tốc công nghệ vô tuyến 5G, cho phép chúng tôi xác định phần mềm và tăng tốc các mạng viễn thông giống như các mạng Internet được xác định bằng phần mềm.
Những khả năng tăng tốc này không chỉ cải thiện hiệu suất mà còn giúp chúng tôi chuyển đổi toàn bộ ngành viễn thông ngành công nghiệp Nó là một nền tảng điện toán tương tự như điện toán đám mây. Ngoài ra, nền tảng in thạch bản tính toán Coolitho cũng là một ví dụ điển hình, giúp cải thiện đáng kể hiệu quả sản xuất mặt nạ, phần đòi hỏi nhiều tính toán nhất trong quy trình sản xuất chip. Các công ty như TSMC đã bắt đầu sử dụng Coolitho để sản xuất, điều này không chỉ tiết kiệm đáng kể năng lượng mà còn giảm đáng kể chi phí. Mục tiêu của họ là chuẩn bị cho những tiến bộ hơn nữa về thuật toán và sức mạnh tính toán khổng lồ cần thiết để tạo ra các bóng bán dẫn sâu hơn và hẹp hơn bằng cách tăng tốc ngăn xếp công nghệ.
Pair of Bricks là thư viện giải trình tự gen đáng tự hào của chúng tôi, nơi có năng suất giải trình tự gen hàng đầu thế giới. Co OPT là một thư viện tối ưu hóa tổ hợp ấn tượng có thể giải quyết các vấn đề phức tạp như lập kế hoạch lộ trình, tối ưu hóa hành trình và các vấn đề của đại lý du lịch. Người ta thường tin rằng những vấn đề này cần đến máy tính lượng tử để giải quyết, nhưng chúng tôi đã sử dụng công nghệ điện toán tăng tốc để tạo ra một thuật toán chạy cực nhanh và đã phá thành công 23 kỷ lục thế giới. Chúng tôi vẫn giữ mọi kỷ lục thế giới lớn cho đến ngày nay.
Coup Quantum là hệ thống mô phỏng máy tính lượng tử do chúng tôi phát triển. Đối với các nhà nghiên cứu muốn thiết kế máy tính lượng tử hoặc thuật toán lượng tử, một trình mô phỏng đáng tin cậy là điều cần thiết. Trong trường hợp không có máy tính lượng tử thực sự, NVIDIA CUDA—cái mà chúng tôi gọi là máy tính nhanh nhất thế giới—đã trở thành công cụ được họ lựa chọn. Chúng tôi cung cấp trình mô phỏng mô phỏng hoạt động của máy tính lượng tử để giúp các nhà nghiên cứu đạt được những đột phá trong lĩnh vực điện toán lượng tử. Trình mô phỏng này đã được hàng trăm nghìn nhà nghiên cứu trên khắp thế giới sử dụng rộng rãi và được tích hợp vào tất cả các nền tảng điện toán lượng tử hàng đầu, cung cấp sự hỗ trợ mạnh mẽ cho các trung tâm siêu máy tính khoa học trên toàn thế giới.
Ngoài ra, chúng tôi cũng ra mắt thư viện xử lý dữ liệu Kudieff, thư viện này được sử dụng đặc biệt để tăng tốc quá trình xử lý dữ liệu. Xử lý dữ liệu chiếm phần lớn chi tiêu trên đám mây ngày nay, vì vậy việc tăng tốc xử lý dữ liệu là rất quan trọng để tiết kiệm chi phí. QDF là một công cụ tăng tốc do chúng tôi phát triển có thể cải thiện đáng kể hiệu suất của các thư viện xử lý dữ liệu lớn trên thế giới như Spark, Pandas, Polar và NetworkX cũng như các cơ sở dữ liệu xử lý đồ thị khác.
Những thư viện này là thành phần chính của hệ sinh thái cho phép áp dụng rộng rãi điện toán tăng tốc. Nếu không có các thư viện dành riêng cho miền được xây dựng cẩn thận như cuDNN, các nhà khoa học chuyên sâu trên khắp thế giới có thể không khai thác hết tiềm năng của nó chỉ với CUDA, vì có sự khác biệt đáng kể giữa CUDA và các thuật toán được sử dụng trong các khung học sâu như TensorFlow và PyTorch . Nó cũng không thực tế như thiết kế đồ họa máy tính mà không có OpenGL hoặc xử lý dữ liệu mà không có SQL.
Những thư viện dành riêng cho miền này là kho báu của công ty chúng tôi và chúng tôi hiện có hơn 350 thư viện trong số đó. Chính những thư viện này đã giúp chúng tôi luôn cởi mở và dẫn đầu trên thị trường. Hôm nay tôi sẽ cho bạn xem một số ví dụ thú vị hơn.
Chỉ mới tuần trước, Google đã thông báo rằng họ đã triển khai QDF trên đám mây và đã tăng tốc thành công Pandas. Pandas là thư viện khoa học dữ liệu phổ biến nhất thế giới, được 10 triệu nhà khoa học dữ liệu trên khắp thế giới sử dụng và được tải xuống 170 triệu lần mỗi tháng. Nó giống như Excel dành cho các nhà khoa học dữ liệu, trợ lý đắc lực của họ trong việc xử lý dữ liệu.
Giờ đây, chỉ với một cú nhấp chuột vào Colab, nền tảng trung tâm dữ liệu đám mây của Google, bạn có thể trải nghiệm hiệu suất mạnh mẽ của Pandas được tăng tốc bởi QDF. Hiệu ứng tăng tốc này thực sự đáng kinh ngạc, giống như màn trình diễn bạn vừa xem, nó hoàn thành nhiệm vụ xử lý dữ liệu gần như ngay lập tức.
3. CUDA đạt được một chu kỳ tích cực
CUDA đã đạt đến cái mà mọi người gọi là điểm tới hạn, nhưng thực tế còn tốt hơn thế này. CUDA đã đạt được một chu kỳ phát triển có đạo đức. Nhìn lại lịch sử và sự phát triển của các nền tảng và kiến trúc máy tính khác nhau, chúng ta có thể thấy rằng những chu kỳ như vậy không hề phổ biến. Lấy CPU vi xử lý làm ví dụ. Nó đã tồn tại được 60 năm, nhưng phương pháp tăng tốc tính toán của nó về cơ bản không thay đổi trong suốt những năm dài đó.
Để tạo ra một nền tảng điện toán mới, chúng ta thường phải đối mặt với tình thế khó xử "con gà hay quả trứng". Nếu không có sự hỗ trợ của các nhà phát triển, nền tảng khó thu hút được người dùng và nếu không có sự chấp nhận rộng rãi của người dùng thì khó có thể hình thành cơ sở cài đặt khổng lồ để thu hút các nhà phát triển. Vấn đề nan giải này đã cản trở sự phát triển của nhiều nền tảng điện toán trong 20 năm qua.
Tuy nhiên, chúng tôi đã khắc phục thành công vấn đề nan giải này bằng cách liên tục tung ra các thư viện tăng tốc và thư viện dành riêng cho từng miền. Ngày nay, chúng tôi có 5 triệu nhà phát triển trên khắp thế giới sử dụng công nghệ CUDA để phục vụ hầu hết mọi ngành công nghiệp và lĩnh vực khoa học chính, từ dịch vụ chăm sóc sức khỏe và tài chính đến ngành công nghiệp máy tính và ngành công nghiệp ô tô.
Khi cơ sở khách hàng của chúng tôi tiếp tục mở rộng, các OEM và nhà cung cấp dịch vụ đám mây cũng bắt đầu quan tâm đến hệ thống của chúng tôi, điều này càng thúc đẩy nhiều hệ thống hơn tham gia thị trường. Chu kỳ tích cực này tạo ra những cơ hội lớn cho chúng tôi, cho phép chúng tôi mở rộng quy mô và tăng cường đầu tư vào R&D, từ đó thúc đẩy sự phát triển nhanh chóng của nhiều ứng dụng hơn.
Mỗi lần tăng tốc ứng dụng đồng nghĩa với việc giảm đáng kể chi phí điện toán. Như tôi đã trình bày trước đây, việc tăng tốc gấp 100 lần có thể giúp tiết kiệm chi phí lên tới 97,96%, tức là gần 98%. Khi chúng tôi tăng khả năng tăng tốc tính toán từ 100 lần lên 200 lần, rồi tăng lên 1.000 lần, chi phí biên của tính toán tiếp tục giảm, chứng tỏ lợi ích kinh tế ấn tượng.
Tất nhiên, chúng tôi tin rằng bằng cách giảm đáng kể chi phí điện toán, thị trường, nhà phát triển, nhà khoa học và nhà phát minh sẽ tiếp tục khám phá các thuật toán mới tiêu tốn nhiều tài nguyên máy tính hơn. Đến một lúc nào đó, một sự thay đổi sâu sắc sẽ lặng lẽ xảy ra. Khi chi phí cận biên của máy tính trở nên quá thấp, những cách sử dụng máy tính hoàn toàn mới sẽ xuất hiện.
Trên thực tế, sự biến đổi này đang diễn ra trước mắt chúng ta. Trong thập kỷ qua, chúng tôi đã sử dụng các thuật toán cụ thể để giảm chi phí biên của điện toán xuống mức đáng kinh ngạc là 1 triệu lần. Ngày nay, việc sử dụng toàn bộ dữ liệu trên Internet để huấn luyện các mô hình ngôn ngữ lớn đã trở thành một lựa chọn hợp lý và đương nhiên, không còn nghi ngờ gì nữa.
Ý tưởng này—xây dựng một chiếc máy tính có thể xử lý lượng lớn dữ liệu để tự lập trình—là nền tảng cho sự phát triển của trí tuệ nhân tạo. Sự trỗi dậy của trí tuệ nhân tạo chỉ có thể thực hiện được nhờ niềm tin của chúng ta rằng nếu chúng ta làm cho máy tính ngày càng rẻ hơn thì sẽ luôn có người tìm thấy công dụng to lớn của nó. Ngày nay, sự thành công của CUDA đã chứng minh tính khả thi của chu trình đạo đức này.
Khi cơ sở được cài đặt tiếp tục mở rộng và chi phí điện toán tiếp tục giảm, nhiều nhà phát triển có thể phát huy tiềm năng đổi mới của mình và đưa ra nhiều ý tưởng và giải pháp hơn. Sự đổi mới này đã thúc đẩy nhu cầu thị trường tăng vọt. Bây giờ chúng ta đang đứng trước một bước ngoặt lớn. Tuy nhiên, trước khi đi xa hơn, tôi muốn nhấn mạnh rằng những gì tôi sắp trình bày dưới đây sẽ không thể thực hiện được nếu không có những đột phá trong CUDA và công nghệ AI hiện đại - đặc biệt là AI tổng hợp.
Đây là dự án "Trái đất 2" - một ý tưởng đầy tham vọng nhằm tạo ra một bản sao kỹ thuật số của Trái đất. Chúng tôi sẽ mô phỏng hành vi của toàn bộ Trái đất để dự đoán những thay đổi trong tương lai của nó. Thông qua những mô phỏng như thế này, chúng ta có thể ngăn chặn thảm họa tốt hơn và hiểu sâu hơn về tác động của biến đổi khí hậu, cho phép chúng ta thích ứng tốt hơn với những thay đổi này và bắt đầu thay đổi hành vi cũng như thói quen của mình ngay từ bây giờ.
Dự án "Trái đất 2" có thể là một trong những dự án đầy thách thức và tham vọng nhất trên thế giới. Chúng tôi đạt được tiến bộ đáng kể trong lĩnh vực này hàng năm, nhưng kết quả năm nay đặc biệt nổi bật. Bây giờ, xin cho phép tôi trình bày những phát triển thú vị này với bạn.
Trong tương lai không xa, chúng ta sẽ có khả năng dự báo thời tiết liên tục trên từng km2 trên hành tinh. Bạn sẽ luôn biết khí hậu sẽ thay đổi như thế nào và những dự đoán này sẽ chạy liên tục vì chúng ta đào tạo trí tuệ nhân tạo và năng lượng cần thiết cho trí tuệ nhân tạo là vô cùng hạn chế. Đây sẽ là một thành tựu đáng kinh ngạc. Tôi hy vọng các bạn thích nó, nhưng quan trọng hơn, dự đoán này thực sự là do Jensen AI đưa ra chứ không phải tôi. Tôi đã thiết kế nó, nhưng những dự đoán cuối cùng được Jensen AI đưa ra.
Khi chúng tôi cố gắng liên tục cải thiện hiệu suất và giảm chi phí, các nhà nghiên cứu đã phát hiện ra CUDA vào năm 2012, cuộc chạm trán đầu tiên của NVIDIA với trí tuệ nhân tạo. Ngày hôm đó rất quan trọng đối với chúng tôi vì chúng tôi đã đưa ra lựa chọn thông minh là hợp tác chặt chẽ với các nhà khoa học để biến việc học sâu thành hiện thực. Sự xuất hiện của AlexNet đã đạt được bước đột phá lớn về thị giác máy tính.
4. Sự phát triển của siêu máy tính AI lúc đầu không được công nhận
Nhưng điều quan trọng hơn là chúng ta lùi lại một bước và hiểu sâu sắc Hiểu bản chất của học sâu. Cơ sở của nó là gì? Tác dụng lâu dài của nó là gì? Tiềm năng của nó là gì? Chúng tôi nhận thấy rằng công nghệ này có tiềm năng to lớn để tiếp tục mở rộng quy mô các thuật toán được phát minh và khám phá cách đây hàng thập kỷ. Kết hợp với nhiều dữ liệu hơn, mạng lớn hơn và tài nguyên điện toán quan trọng, deep learning đột nhiên có khả năng thực hiện các Nhiệm vụ ở cấp độ con người vượt quá tầm với của thuật toán.
Bây giờ, hãy tưởng tượng điều gì sẽ xảy ra nếu chúng ta tiếp tục mở rộng kiến trúc, với mạng lớn hơn, nhiều tài nguyên dữ liệu và máy tính hơn? Vì vậy, chúng tôi cố gắng tái tạo lại mọi thứ. Kể từ năm 2012, chúng tôi đã thay đổi kiến trúc GPU, bổ sung lõi tensor, phát minh ra NV-Link, ra mắt cuDNN, TensorRT, Nickel, mua lại Mellanox và ra mắt máy chủ suy luận Triton.
Những công nghệ này được tích hợp vào một chiếc máy tính hoàn toàn mới vượt xa sức tưởng tượng của bất kỳ ai vào thời điểm đó. Không ai lường trước được nó, không ai yêu cầu nó, thậm chí không ai hiểu hết tiềm năng của nó. Trên thực tế, tôi không chắc có ai muốn tự mình mua nó không.
Nhưng tại hội nghị GTC, chúng tôi đã chính thức trình làng công nghệ này. Một công ty khởi nghiệp ở San Francisco tên là OpenAI đã nhanh chóng chú ý đến công việc của chúng tôi và yêu cầu chúng tôi cung cấp một thiết bị. Cá nhân tôi đã gửi siêu máy tính trí tuệ nhân tạo DGX đầu tiên trên thế giới tới OpenAI.
Năm 2016, chúng tôi tiếp tục mở rộng quy mô nghiên cứu và phát triển. Từ một siêu máy tính trí tuệ nhân tạo duy nhất và một ứng dụng trí tuệ nhân tạo duy nhất, nó đã mở rộng sang việc ra mắt siêu máy tính lớn hơn và mạnh hơn vào năm 2017. Với sự tiến bộ không ngừng của công nghệ, thế giới đã chứng kiến sự trỗi dậy của Transformer. Sự xuất hiện của mô hình này cho phép chúng tôi xử lý lượng dữ liệu khổng lồ cũng như xác định và tìm hiểu các mẫu liên tục trong khoảng thời gian dài.
Ngày nay, chúng tôi có khả năng đào tạo những mô hình ngôn ngữ lớn này để đạt được những bước đột phá lớn trong việc hiểu ngôn ngữ tự nhiên. Nhưng chúng tôi không dừng lại ở đó, chúng tôi tiếp tục xây dựng những mô hình lớn hơn. Đến tháng 11 năm 2022, chúng tôi sẽ sử dụng hàng chục nghìn GPU NVIDIA để đào tạo về các siêu máy tính có trí tuệ nhân tạo cực kỳ mạnh mẽ.
Chỉ 5 ngày sau, OpenAI thông báo ChatGPT đã có 1 triệu người dùng. Tốc độ tăng trưởng đáng kinh ngạc này đã lên tới 100 triệu người dùng chỉ sau hai tháng, tạo nên kỷ lục tăng trưởng nhanh nhất trong lịch sử ứng dụng. Lý do rất đơn giản - trải nghiệm sử dụng ChatGPT thật tiện lợi và kỳ diệu.
Người dùng có thể tương tác với máy tính một cách tự nhiên và mượt mà như đang giao tiếp với người thật. ChatGPT hiểu được ý định và nhu cầu của người dùng mà không cần những hướng dẫn rườm rà hay mô tả rõ ràng.
Sự xuất hiện của ChatGPT đánh dấu một sự thay đổi mang tính thời đại và trang trình bày này ghi lại bước ngoặt quan trọng này. Xin vui lòng cho phép tôi cho bạn xem nó.
Phải đến khi ChatGPT ra đời, nó mới thực sự tiết lộ trí tuệ nhân tạo có tính sáng tạo cho thế giới có tiềm năng vô hạn. Trong một thời gian dài, trọng tâm của trí tuệ nhân tạo chủ yếu là lĩnh vực nhận thức, chẳng hạn như hiểu ngôn ngữ tự nhiên, thị giác máy tính và nhận dạng giọng nói. Những công nghệ này được dành riêng để mô phỏng khả năng nhận thức của con người. Nhưng ChatGPT đã mang đến một bước nhảy vọt về chất. Nó không chỉ giới hạn ở nhận thức mà còn lần đầu tiên chứng minh được sức mạnh của trí tuệ nhân tạo có khả năng tạo ra.
Nó sẽ tạo ra từng Token một, có thể là từ ngữ, hình ảnh, biểu đồ, bảng biểu hoặc thậm chí cả bài hát, văn bản, giọng nói và video. Mã thông báo có thể đại diện cho bất kỳ thứ gì có ý nghĩa rõ ràng, cho dù đó là hóa chất, protein, gen hay kiểu thời tiết mà chúng tôi đã đề cập trước đó.
Sự nổi lên của trí tuệ nhân tạo tổng hợp này có nghĩa là chúng ta có thể tìm hiểu và mô phỏng các hiện tượng vật lý, cho phép các mô hình trí tuệ nhân tạo hiểu và tạo ra nhiều hiện tượng khác nhau trong thế giới vật chất. Chúng tôi không còn bị giới hạn trong việc thu hẹp phạm vi để lọc mà khám phá những khả năng vô hạn thông qua các phương pháp tổng hợp.
Ngày nay, chúng ta có thể tạo ra mã thông báo cho hầu hết mọi thứ có giá trị, cho dù đó là điều khiển vô lăng của ô tô, chuyển động chung của cánh tay robot hay bất kỳ kiến thức nào chúng ta hiện có thể học được. Vì vậy, chúng ta không chỉ đang ở trong kỷ nguyên của trí tuệ nhân tạo mà còn là một kỷ nguyên mới được dẫn dắt bởi trí tuệ nhân tạo có khả năng sáng tạo.
Quan trọng hơn, thiết bị ban đầu xuất hiện dưới dạng siêu máy tính này giờ đây đã phát triển thành một trung tâm dữ liệu trí tuệ nhân tạo hiệu quả. Nó liên tục sản xuất, không chỉ tạo ra Token mà còn là một nhà máy trí tuệ nhân tạo tạo ra giá trị. Nhà máy trí tuệ nhân tạo này đang tạo ra và sản xuất hàng hóa mới với tiềm năng thị trường khổng lồ.
Giống như Nikola Tesla đã phát minh ra máy phát điện vào cuối thế kỷ 19, mang đến cho chúng ta dòng điện tử ổn định, các máy phát điện trí tuệ nhân tạo của Nvidia cũng liên tục sản xuất điện bằng Token với khả năng vô hạn. Cả hai đều có cơ hội thị trường khổng lồ và hứa hẹn sẽ cách mạng hóa mọi ngành công nghiệp. Đây thực sự là một cuộc cách mạng công nghiệp mới!
Bây giờ chúng tôi có một nhà máy hoàn toàn mới có khả năng sản xuất hàng hóa mới có giá trị và chưa từng có cho nhiều ngành công nghiệp. Cách tiếp cận này không chỉ có khả năng mở rộng cực kỳ cao mà còn hoàn toàn có thể lặp lại. Xin lưu ý rằng hiện tại, nhiều mô hình trí tuệ nhân tạo khác nhau, đặc biệt là các mô hình trí tuệ nhân tạo tổng quát đang xuất hiện mỗi ngày. Ngày nay, mọi ngành nghề đều tranh nhau tham gia, điều chưa từng có.
Ngành CNTT trị giá 3 nghìn tỷ USD sẽ sớm tạo ra những đổi mới có thể phục vụ trực tiếp cho ngành công nghiệp trị giá 100 nghìn tỷ USD. Nó không còn chỉ là một công cụ lưu trữ thông tin hoặc xử lý dữ liệu mà còn là công cụ tạo ra trí thông minh trong mọi ngành công nghiệp. Đây sẽ trở thành một loại hình sản xuất mới, nhưng nó không phải là ngành sản xuất máy tính truyền thống mà là một mô hình sản xuất mới sử dụng máy tính. Sự biến đổi như vậy chưa từng xảy ra trước đây và đó thực sự là một điều đáng chú ý và đáng chú ý.
5. Generative AI thúc đẩy việc định hình lại toàn bộ hệ thống phần mềm và chứng minh các dịch vụ vi mô gốc đám mây của NIM
Điều này mở ra một kỷ nguyên mới về tăng tốc điện toán Nó thúc đẩy sự phát triển nhanh chóng của trí tuệ nhân tạo, từ đó tạo ra sự phát triển của trí tuệ nhân tạo có khả năng sáng tạo. Ngày nay, chúng ta đang trải qua một cuộc cách mạng công nghiệp. Hãy tìm hiểu sâu hơn một chút về ý nghĩa.
Đối với ngành của chúng tôi, tác động của sự thay đổi này cũng sâu sắc không kém. Như tôi đã nói trước đây, lần đầu tiên trong sáu mươi năm qua, mọi lớp điện toán đều đang được chuyển đổi. Từ tính toán chung của CPU đến tính toán tăng tốc của GPU, mọi thay đổi đều đánh dấu một bước nhảy vọt về công nghệ.
Trước đây, máy tính cần tuân theo hướng dẫn để thực hiện các thao tác, nhưng giờ đây chúng xử lý nhiều hơn với LLM (Mô hình ngôn ngữ lớn) và các mô hình trí tuệ nhân tạo. Các mô hình điện toán trước đây chủ yếu dựa trên việc truy xuất. Hầu như mỗi khi bạn sử dụng điện thoại, nó sẽ truy xuất văn bản, hình ảnh hoặc video được lưu trữ trước cho bạn và tập hợp lại chúng dựa trên hệ thống đề xuất để hiển thị cho bạn.
Nhưng trong tương lai, máy tính của bạn sẽ tạo ra nhiều nội dung nhất có thể, chỉ truy xuất những thông tin cần thiết, vì việc tạo dữ liệu sẽ tiêu tốn ít năng lượng hơn trong việc truy xuất thông tin. Hơn nữa, dữ liệu được tạo ra có tính ngữ cảnh hơn và phản ánh chính xác hơn nhu cầu của bạn. Khi cần câu trả lời, bạn không cần phải hướng dẫn rõ ràng cho máy tính "lấy cho tôi thông tin đó" hoặc "đưa cho tôi tệp đó". Bạn chỉ cần nói: "Hãy cho tôi câu trả lời".
Hơn nữa, máy tính Nó không còn chỉ là một công cụ chúng ta sử dụng nữa mà nó bắt đầu tạo ra các kỹ năng. Nó thực hiện các nhiệm vụ chứ không phải là một ngành sản xuất phần mềm, vốn là một ý tưởng mang tính đột phá vào đầu những năm 1990. nhớ? Khái niệm đóng gói phần mềm do Microsoft đề xuất đã thay đổi hoàn toàn ngành công nghiệp PC. Nếu không có phần mềm đóng gói, PC của chúng ta sẽ mất hầu hết chức năng. Sự đổi mới này đã thúc đẩy sự phát triển của toàn bộ ngành công nghiệp.
Bây giờ chúng tôi có một nhà máy mới, một máy tính mới và hoạt động trên cơ sở này là một loại phần mềm mới - chúng tôi gọi nó là Nim (NVIDIA Inference Microservices). Nim đang chạy trong nhà máy mới này là mô hình được đào tạo trước, là trí tuệ nhân tạo.
Bản thân trí tuệ nhân tạo khá phức tạp, nhưng ngăn xếp điện toán chạy trí tuệ nhân tạo trí thông minh thậm chí còn phức tạp hơn nhiều. Khi bạn sử dụng một mô hình như ChatGPT, sẽ có rất nhiều phần mềm đằng sau nó. Ngăn xếp này phức tạp và lớn vì các mô hình có hàng tỷ đến hàng nghìn tỷ tham số và chạy không chỉ trên một máy tính mà còn trên nhiều máy tính làm việc cùng nhau.
Để tối đa hóa hiệu quả, hệ thống cần phân phối khối lượng công việc cho nhiều GPU để xử lý song song khác nhau, chẳng hạn như song song tensor, song song đường ống, song song dữ liệu và song song chuyên gia. Việc phân bổ này nhằm đảm bảo công việc được hoàn thành nhanh nhất có thể, bởi trong một nhà máy, sản lượng liên quan trực tiếp đến doanh thu, chất lượng dịch vụ và số lượng khách hàng có thể phục vụ. Ngày nay, chúng ta đang ở thời đại mà việc sử dụng thông lượng của trung tâm dữ liệu là rất quan trọng.
Trước đây, mặc dù thông lượng được coi là quan trọng nhưng nó không phải là yếu tố quyết định. Tuy nhiên, giờ đây, mọi thông số từ thời gian khởi động, thời gian hoạt động, mức sử dụng, thông lượng đến thời gian nhàn rỗi đều được đo lường chính xác khi trung tâm dữ liệu đã trở thành một “nhà máy” thực sự. Trong nhà máy này, hiệu quả hoạt động liên quan trực tiếp đến hiệu quả tài chính của công ty.
Với sự phức tạp này, chúng tôi hiểu những thách thức mà hầu hết các công ty gặp phải khi triển khai AI. Do đó, chúng tôi đã phát triển giải pháp bộ chứa AI tích hợp đóng gói AI trong một hộp dễ triển khai và quản lý. Hộp này chứa một bộ phần mềm khổng lồ như CUDA, CUDACNN và TensorRT, cũng như dịch vụ suy luận Triton. Nó hỗ trợ các môi trường dựa trên đám mây, cho phép mở rộng tự động trong môi trường Kubernetes (giải pháp kiến trúc phân tán dựa trên công nghệ container) và cung cấp các dịch vụ quản lý để hỗ trợ người dùng theo dõi trạng thái hoạt động của các dịch vụ trí tuệ nhân tạo.
Điều thú vị hơn nữa là vùng chứa trí tuệ nhân tạo này cung cấp khả năng phổ biến và tiêu chuẩn. Giao diện API cho phép người dùng tương tác trực tiếp với “box”. Người dùng chỉ cần tải Nim về và chạy trên máy tính có hỗ trợ CUDA là có thể dễ dàng triển khai và quản lý các dịch vụ trí tuệ nhân tạo. Ngày nay, CUDA có mặt khắp nơi, nó hỗ trợ các nhà cung cấp dịch vụ đám mây lớn, hầu hết tất cả các nhà sản xuất máy tính đều cung cấp hỗ trợ CUDA và thậm chí nó có thể được tìm thấy trong hàng trăm triệu PC.
Khi tải Nim về, bạn sẽ có ngay một trợ lý trí tuệ nhân tạo có thể giao tiếp mượt mà như chat với ChatGPT. Giờ đây, tất cả phần mềm đã được sắp xếp hợp lý và tích hợp vào một vùng chứa, đồng thời 400 phần phụ thuộc rườm rà trước đây đều đã được tối ưu hóa tập trung. Chúng tôi kiểm tra Nim một cách nghiêm ngặt và mỗi mô hình được đào tạo trước đều được kiểm tra đầy đủ trên cơ sở hạ tầng đám mây của chúng tôi, bao gồm các phiên bản GPU khác nhau như Pascal, Ampere và thậm chí cả Hopper mới nhất. Các phiên bản này rất đa dạng và đáp ứng hầu hết mọi nhu cầu.
Việc phát minh ra Nim chắc chắn là một kỳ công và là một trong những thành tựu đáng tự hào nhất của tôi. Ngày nay, chúng tôi có khả năng xây dựng các mô hình ngôn ngữ lớn và nhiều mô hình được đào tạo trước khác nhau bao gồm nhiều lĩnh vực như ngôn ngữ, tầm nhìn, hình ảnh, v.v., cũng như các phiên bản tùy chỉnh cho các ngành cụ thể như chăm sóc sức khỏe và sinh học kỹ thuật số.
Để tìm hiểu thêm hoặc dùng thử các phiên bản này, chỉ cần truy cập ai.nvidia .com . Hôm nay, chúng tôi đã phát hành Llama 3 Nim trên Ôm Mặt được tối ưu hóa hoàn toàn, bạn có thể dùng thử ngay hoặc thậm chí mang về miễn phí. Cho dù bạn chọn nền tảng đám mây nào, bạn đều có thể chạy nó một cách dễ dàng. Tất nhiên, bạn cũng có thể tải vùng chứa này xuống trung tâm dữ liệu của mình, tự lưu trữ và phục vụ khách hàng của mình.
Như tôi đã đề cập trước đó, chúng tôi có các phiên bản Nim bao gồm các lĩnh vực khác nhau, bao gồm vật lý, truy xuất ngữ nghĩa, ngôn ngữ hình ảnh, v.v., hỗ trợ nhiều ngôn ngữ. Những dịch vụ vi mô này có thể dễ dàng tích hợp vào các ứng dụng lớn hơn, một trong những ứng dụng hứa hẹn nhất là đại lý dịch vụ khách hàng. Đó là tiêu chuẩn trong hầu hết mọi ngành và đại diện cho thị trường dịch vụ khách hàng toàn cầu trị giá hàng nghìn tỷ đô la.
Điều đáng nói là y tá, với vai trò cốt lõi của dịch vụ khách hàng, đóng vai trò quan trọng trong các ngành như bán lẻ, thức ăn nhanh, dịch vụ tài chính và bảo hiểm. Ngày nay, hàng chục triệu nhân viên dịch vụ khách hàng được nâng cao đáng kể nhờ sự trợ giúp của các mô hình ngôn ngữ và công nghệ trí tuệ nhân tạo. Trọng tâm của những công cụ nâng cao này là những gì bạn thấy ở Nim.
Một số người được gọi là Tác nhân lý luận, sau khi được giao nhiệm vụ, họ có thể làm rõ mục tiêu và xây dựng kế hoạch. Một số giỏi truy xuất thông tin, một số giỏi tìm kiếm và những người khác có thể sử dụng các công cụ như Coop hoặc cần học một ngôn ngữ cụ thể như ABAP chạy trên SAP hoặc thậm chí thực hiện các truy vấn SQL. Những người được gọi là chuyên gia này hiện được tổ chức thành một nhóm có tính hợp tác cao.
Lớp ứng dụng cũng đã thay đổi: trước đây, các ứng dụng được viết theo hướng dẫn, nhưng bây giờ chúng được xây dựng bằng cách tập hợp các nhóm trí tuệ nhân tạo. Mặc dù viết chương trình đòi hỏi những kỹ năng chuyên môn nhưng hầu hết mọi người đều biết cách phân tích vấn đề và thành lập nhóm. Vì vậy, tôi tin chắc rằng mọi công ty trong tương lai sẽ có một bộ sưu tập Nim khổng lồ. Bạn có thể chọn các chuyên gia theo nhu cầu của mình và kết nối họ thành một nhóm.
Điều tuyệt vời hơn nữa là bạn thậm chí không cần phải tìm cách kết nối chúng. Chỉ cần giao nhiệm vụ cho một đại lý và Nim sẽ quyết định một cách thông minh cách chia nhỏ nhiệm vụ đó và giao cho chuyên gia phù hợp nhất. Họ đóng vai trò như người lãnh đạo trung tâm của ứng dụng hoặc nhóm, điều phối công việc của các thành viên trong nhóm và cuối cùng trình bày kết quả cho bạn.
Toàn bộ quá trình cũng hiệu quả và linh hoạt như tinh thần đồng đội của con người. Đây không chỉ là xu hướng trong tương lai mà sắp trở thành hiện thực xung quanh chúng ta. Đây là giao diện của các ứng dụng trong tương lai.
6. PC sẽ trở thành phương tiện truyền tải chính của con người kỹ thuật số
Khi nói về sự tương tác với các dịch vụ trí tuệ nhân tạo quy mô lớn, chúng ta có thể đã sử dụng lời nhắc bằng văn bản và giọng nói. Nhưng trong tương lai, chúng tôi hy vọng sẽ tương tác theo cách nhân văn hơn - với tư cách là con người kỹ thuật số. NVIDIA đã đạt được tiến bộ đáng kể trong công nghệ kỹ thuật số của con người.
Người kỹ thuật số không chỉ có tiềm năng trở thành tác nhân tương tác tuyệt vời mà còn thu hút mọi người hơn và có thể thể hiện sự đồng cảm lớn hơn. Tuy nhiên, vẫn còn rất nhiều việc phải làm để thu hẹp khoảng cách đáng kinh ngạc này và làm cho con người kỹ thuật số trông tự nhiên hơn. Đây không chỉ là tầm nhìn của chúng tôi mà còn là mục tiêu chúng tôi không ngừng theo đuổi.
Trước khi tôi cho các bạn xem kết quả hiện tại của chúng tôi, cho phép tôi gửi lời chào nồng nhiệt tới Đài Loan, Trung Quốc. Trước khi khám phá sâu về sự quyến rũ của chợ đêm, trước tiên chúng ta hãy đánh giá cao những xu hướng tiên tiến của công nghệ kỹ thuật số của con người.
Điều này thực sự không thể tin được. ACE (Avatar Cloud Engine, NVIDIA Digital Human Technology) không chỉ có thể chạy hiệu quả trên đám mây mà còn tương thích với môi trường PC. Việc tích hợp chủ động GPU Tensor Core vào tất cả các dòng RTX báo hiệu rằng kỷ nguyên GPU trí tuệ nhân tạo đã đến và chúng tôi đã chuẩn bị đầy đủ cho điều đó.
Logic đằng sau nó rất rõ ràng: để xây dựng một nền tảng điện toán mới, trước tiên phải đặt nền tảng vững chắc. Với nền tảng vững chắc, việc ứng tuyển sẽ diễn ra một cách tự nhiên. Nếu không có nền tảng như vậy, ứng dụng sẽ trở nên vô dụng. Vì vậy, sự thịnh vượng của ứng dụng chỉ có thể có nếu chúng ta xây dựng nó.
Do đó, chúng tôi đã tích hợp bộ xử lý Tensor Core vào mọi GPU RTX. Hiện có 100 triệu PC GeForce RTX AI đang được sử dụng trên toàn thế giới và con số này vẫn đang tăng lên và dự kiến sẽ đạt 200 triệu. các đơn vị. Tại triển lãm COMPUTEX gần đây, chúng tôi đã ra mắt bốn máy tính xách tay trí tuệ nhân tạo mới.
Các thiết bị này đều có khả năng chạy trí tuệ nhân tạo. Máy tính xách tay và PC trong tương lai sẽ trở thành vật mang trí tuệ nhân tạo, âm thầm giúp đỡ và hỗ trợ bạn ở chế độ nền. Đồng thời, những chiếc PC này cũng sẽ chạy các ứng dụng được tăng cường bởi trí tuệ nhân tạo. Cho dù bạn đang chỉnh sửa ảnh, viết hay sử dụng các công cụ khác, bạn sẽ tận hưởng được sự tiện lợi và những cải tiến do trí tuệ nhân tạo mang lại.
Ngoài ra, PC của bạn sẽ có thể lưu trữ con người kỹ thuật số với trí tuệ nhân tạo mà các ứng dụng cho phép trí tuệ nhân tạo sẽ được trình bày theo nhiều cách đa dạng hơn và được áp dụng trên PC. Rõ ràng, PC sẽ trở thành một nền tảng AI quan trọng. Vì vậy, nơi nào chúng ta đi từ đây?
Trước đây tôi đã nói về việc mở rộng trung tâm dữ liệu của chúng tôi và mỗi lần mở rộng đều đi kèm với những thay đổi mới. Khi chúng tôi mở rộng quy mô từ DGX sang các siêu máy tính AI lớn, chúng tôi đạt được mục tiêu đào tạo Transformer hiệu quả trên các tập dữ liệu khổng lồ. Điều này đánh dấu một sự thay đổi lớn: Ban đầu, dữ liệu cần có sự giám sát của con người và việc con người gắn nhãn được sử dụng để đào tạo AI. Tuy nhiên, có giới hạn về lượng dữ liệu mà con người có thể gắn nhãn. Giờ đây, với sự phát triển của Transformer, việc học không giám sát là điều có thể thực hiện được.
Ngày nay, Transformers có thể tự mình khám phá lượng lớn dữ liệu, video và hình ảnh, học hỏi từ chúng cũng như khám phá các mô hình và mối quan hệ ẩn giấu. Để thúc đẩy sự phát triển của trí tuệ nhân tạo lên những tầm cao hơn, thế hệ trí tuệ nhân tạo tiếp theo cần bắt nguồn từ sự hiểu biết về các quy luật vật lý, nhưng hầu hết các hệ thống trí tuệ nhân tạo đều thiếu hiểu biết sâu sắc về thế giới vật chất. Để tạo ra hình ảnh, video, đồ họa 3D chân thực và mô phỏng các hiện tượng vật lý phức tạp, chúng ta cần khẩn trương phát triển trí tuệ nhân tạo dựa trên vật lý, đòi hỏi trí tuệ nhân tạo phải hiểu và áp dụng các định luật vật lý.
Có hai cách tiếp cận chính để đạt được mục tiêu này. Đầu tiên, bằng cách học từ video, trí tuệ nhân tạo có thể dần dần tích lũy kiến thức về thế giới vật chất. Thứ hai, với dữ liệu tổng hợp, chúng tôi có thể cung cấp cho hệ thống AI một môi trường học tập phong phú và có thể kiểm soát được. Ngoài ra, việc học hỏi lẫn nhau giữa dữ liệu mô phỏng và máy tính cũng là một chiến lược hiệu quả. Phương pháp này tương tự như chế độ tự chơi của AlphaGo, cho phép hai thực thể có cùng khả năng học hỏi lẫn nhau trong một thời gian dài, từ đó liên tục nâng cao mức độ thông minh. Vì vậy, chúng ta có thể thấy trước rằng loại trí tuệ nhân tạo này sẽ dần dần trở nên nổi bật trong tương lai.
7. Blackwell được đưa vào sản xuất hoàn toàn và sức mạnh tính toán của nó đã tăng 1.000 lần trong 8 năm
Khi dữ liệu trí tuệ nhân tạo được tạo ra thông qua tổng hợp và kết hợp với công nghệ học tăng cường, tốc độ tạo dữ liệu sẽ được cải thiện đáng kể. Khi việc tạo dữ liệu tăng lên, nhu cầu về sức mạnh tính toán cũng tăng theo. Chúng ta sắp bước vào một kỷ nguyên mới trong đó trí tuệ nhân tạo sẽ có thể tìm hiểu các định luật vật lý, hiểu và đưa ra quyết định cũng như hành động dựa trên dữ liệu từ thế giới vật chất. Do đó, chúng tôi kỳ vọng rằng các mô hình trí tuệ nhân tạo sẽ tiếp tục mở rộng và yêu cầu về hiệu suất GPU sẽ ngày càng cao hơn.
Để đáp ứng nhu cầu này, Blackwell ra đời. GPU này được thiết kế để hỗ trợ thế hệ trí tuệ nhân tạo tiếp theo và có một số công nghệ chủ chốt. Kích thước chip này là không ai sánh kịp trong ngành. Chúng tôi đã sử dụng hai con chip lớn nhất có thể và kết nối chúng chặt chẽ với nhau thông qua liên kết tốc độ cao 10 terabyte mỗi giây, kết hợp với SerDes (giao diện hoặc công nghệ kết nối hiệu suất cao) tiên tiến nhất thế giới. Hơn nữa, chúng tôi đặt hai con chip như vậy trên một nút máy tính và phối hợp chúng một cách hiệu quả thông qua CPU Grace.
CPU Grace rất linh hoạt và không chỉ phù hợp với các tình huống đào tạo mà còn đóng vai trò quan trọng trong quá trình tạo và suy luận, chẳng hạn như điểm kiểm tra nhanh và khởi động lại. Ngoài ra, nó còn lưu trữ ngữ cảnh, cho phép hệ thống AI có bộ nhớ và hiểu ngữ cảnh cuộc trò chuyện của người dùng, điều này rất quan trọng để nâng cao tính liên tục và trôi chảy của các tương tác.
Công cụ Transformer thế hệ thứ hai mà chúng tôi ra mắt đã cải thiện hơn nữa hiệu quả tính toán của trí tuệ nhân tạo. Động cơ tự động điều chỉnh để giảm độ chính xác dựa trên yêu cầu về độ chính xác và phạm vi của lớp điện toán, từ đó duy trì hiệu suất đồng thời giảm mức tiêu thụ năng lượng. Đồng thời, GPU Blackwell còn có tính năng trí tuệ nhân tạo an toàn, đảm bảo người dùng có thể yêu cầu nhà cung cấp dịch vụ bảo vệ họ khỏi bị trộm hoặc giả mạo.
Về kết nối GPU, chúng tôi sử dụng công nghệ NV Link thế hệ thứ năm, cho phép chúng tôi dễ dàng kết nối nhiều GPU. Ngoài ra, GPU Blackwell còn được trang bị công cụ độ tin cậy và tính khả dụng thế hệ đầu tiên (hệ thống Ras). Công nghệ tiên tiến này có thể kiểm tra mọi bóng bán dẫn, flip-flop, bộ nhớ và bộ nhớ ngoài chip trên chip để đảm bảo chúng ta có thể đánh giá chính xác. tại chỗ Liệu một con chip cụ thể có đáp ứng các tiêu chuẩn về thời gian trung bình giữa các lần hỏng hóc (MTBF) hay không.
Đối với các siêu máy tính lớn, độ tin cậy là đặc biệt quan trọng. Một siêu máy tính có 10.000 GPU có thể có thời gian trung bình giữa các lần hỏng hóc tính bằng giờ, nhưng khi số lượng GPU tăng lên 100.000, thời gian trung bình giữa các lần hỏng hóc sẽ giảm xuống còn vài phút. Vì vậy, để đảm bảo siêu máy tính có thể chạy ổn định trong thời gian dài để huấn luyện các mô hình phức tạp có thể mất hàng tháng, chúng ta phải nâng cao độ tin cậy thông qua đổi mới công nghệ. Việc cải thiện độ tin cậy không chỉ có thể tăng thời gian hoạt động của hệ thống mà còn giảm chi phí một cách hiệu quả.
Cuối cùng, chúng tôi đã tích hợp công cụ giải nén tiên tiến vào GPU Blackwell. Khi nói đến xử lý dữ liệu, tốc độ giải nén là rất quan trọng. Bằng cách tích hợp công cụ này, chúng tôi có thể lấy dữ liệu từ bộ lưu trữ nhanh hơn 20 lần so với công nghệ hiện có, do đó cải thiện đáng kể hiệu quả xử lý dữ liệu.
Các tính năng trên của GPU Blackwell khiến nó trở thành một sản phẩm hấp dẫn. Tại hội nghị GTC trước, tôi đã cho mọi người xem Blackwell ở trạng thái nguyên mẫu. Và bây giờ, chúng tôi vui mừng thông báo rằng sản phẩm này đã được đưa vào sản xuất.
Mọi người, đây là Blackwell, sử dụng công nghệ đáng kinh ngạc. Đây là kiệt tác của chúng tôi, chiếc máy tính phức tạp và hiệu suất cao nhất trên thế giới hiện nay. Trong số đó, chúng tôi đặc biệt muốn nhắc đến CPU Grace, mang sức mạnh tính toán khổng lồ. Hãy nhìn xem, hai con chip Blackwell này, chúng được kết nối chặt chẽ với nhau. Bạn có để ý không? Đây là con chip lớn nhất thế giới và chúng tôi đang kết hợp hai trong số chúng thành một bằng cách sử dụng liên kết lên tới A10TB mỗi giây.
Vậy chính xác thì Blackwell là gì? Hiệu suất của nó là không thể tin được. Xin vui lòng xem xét những dữ liệu này một cách cẩn thận. Chỉ trong 8 năm, sức mạnh tính toán, tính toán dấu phẩy động và khả năng tính toán dấu phẩy động trí tuệ nhân tạo của chúng ta đã tăng 1.000 lần. Tốc độ này gần như vượt xa tốc độ tăng trưởng của Định luật Moore trong thời kỳ hưng thịnh nhất của nó.
Sự tăng trưởng về sức mạnh tính toán của Blackwell thật đáng kinh ngạc. Điều đáng nói hơn là mỗi khi sức mạnh tính toán của chúng ta tăng lên thì chi phí lại tiếp tục giảm. Tôi se cho bạn xem. Bằng cách tăng sức mạnh tính toán của chúng tôi, năng lượng được sử dụng để huấn luyện mô hình GPT-4 (2 nghìn tỷ tham số và 8 nghìn tỷ Token) đã giảm 350 lần.
Hãy tưởng tượng nếu việc đào tạo tương tự được thực hiện bằng Pascal, nó sẽ tiêu thụ tới 1000 GWh năng lượng. Điều này đòi hỏi một trung tâm dữ liệu gigawatt để hỗ trợ nó, nhưng không có trung tâm dữ liệu nào như vậy tồn tại trên thế giới. Ngay cả khi nó tồn tại, nó cũng cần phải chạy liên tục trong một tháng. Và nếu là trung tâm dữ liệu 100 megawatt, thời gian đào tạo sẽ kéo dài tới một năm.
Rõ ràng là không ai sẵn sàng hoặc có khả năng tạo ra một trung tâm dữ liệu như vậy. Đây là lý do tại sao 8 năm trước, các mô hình ngôn ngữ lớn như ChatGPT vẫn là một giấc mơ xa vời đối với chúng ta. Nhưng ngày nay, chúng tôi đạt được điều này bằng cách cải thiện hiệu suất và giảm mức tiêu thụ năng lượng.
Chúng tôi đã sử dụng Blackwell để giảm lượng năng lượng ban đầu cần lên tới 1.000 gigawatt giờ xuống chỉ còn 3 gigawatt giờ. Thành tựu này chắc chắn là một bước đột phá đáng kinh ngạc. Hãy tưởng tượng sử dụng 1.000 GPU và năng lượng mà chúng tiêu thụ chỉ tương đương với lượng calo của một tách cà phê. Với 10.000 GPU, chỉ mất khoảng 10 ngày để hoàn thành nhiệm vụ tương tự. Những tiến bộ đạt được trong 8 năm thật đáng kinh ngạc.
Blackwell không chỉ phù hợp cho việc suy luận mà còn cải thiện hiệu suất tạo Token của nó cũng nổi bật. Vào thời Pascal, mỗi token tiêu thụ tới 17.000 joules năng lượng, gần tương đương với năng lượng cần thiết để chạy hai bóng đèn trong hai ngày. Để tạo ra Token GPT-4, gần như phải cần hai bóng đèn 200 watt chạy liên tục trong hai ngày. Xét rằng cần khoảng 3 Token để tạo ra một từ, đây thực sự là một mức tiêu thụ năng lượng rất lớn.
Tuy nhiên, tình thế bây giờ đã hoàn toàn khác. Blackwell chỉ tiêu thụ 0,4 joules năng lượng để tạo ra mỗi mã thông báo, tạo ra mã thông báo với tốc độ đáng kinh ngạc và mức tiêu thụ năng lượng cực thấp. Đây chắc chắn là một bước nhảy vọt lớn. Nhưng ngay cả như vậy, chúng tôi cũng không hài lòng. Để có những đột phá lớn hơn, chúng ta phải chế tạo những cỗ máy mạnh mẽ hơn.
Đây là hệ thống DGX của chúng tôi và chip Blackwell sẽ được nhúng trong đó. Hệ thống này sử dụng công nghệ làm mát bằng không khí và được trang bị 8 GPU như vậy bên trong. Hãy nhìn các tản nhiệt trên những GPU này, thật ngạc nhiên là chúng lớn đến mức nào. Toàn bộ hệ thống tiêu thụ khoảng 15 kilowatt và được làm mát hoàn toàn bằng không khí. Phiên bản này tương thích với x86 và đã được bao gồm trong các máy chủ được vận chuyển của chúng tôi.
Tuy nhiên, nếu bạn thích công nghệ làm mát bằng chất lỏng, chúng tôi có một hệ thống hoàn toàn mới - MGX. Nó dựa trên thiết kế bo mạch chủ này, cái mà chúng tôi gọi là hệ thống "mô-đun". Cốt lõi của hệ thống MGX nằm ở hai chip Blackwell và mỗi nút tích hợp bốn chip Blackwell. Nó sử dụng công nghệ làm mát bằng chất lỏng để đảm bảo hoạt động hiệu quả và ổn định.
Có chín nút như vậy trong toàn bộ hệ thống, với tổng số 72 GPU, tạo thành một cụm điện toán khổng lồ. Các GPU này được kết nối chặt chẽ thông qua công nghệ liên kết NV mới, tạo thành một mạng máy tính liền mạch. NV Link Switch là một tuyệt tác công nghệ. Đây hiện là công tắc tiên tiến nhất trên thế giới với tốc độ truyền dữ liệu đáng kinh ngạc. Các công tắc này cho phép mỗi chip Blackwell được kết nối hiệu quả, tạo thành một cụm 72 GPU khổng lồ.
Ưu điểm của cụm này là gì? Đầu tiên, trong lĩnh vực GPU, giờ đây nó hoạt động giống như một GPU siêu quy mô duy nhất. “Siêu GPU” này có năng lực cốt lõi là 72 GPU, giúp cải thiện hiệu suất gấp 9 lần so với 8 GPU của thế hệ trước. Đồng thời, băng thông đã tăng 18 lần và AI FLOPS (phép toán dấu phẩy động mỗi giây) đã tăng 45 lần, trong khi công suất chỉ tăng 10 lần. Nói cách khác, hệ thống như vậy có thể cung cấp 100 kilowatt điện mạnh, so với chỉ 10 kilowatt của thế hệ trước.
Tất nhiên, bạn cũng có thể kết nối nhiều hệ thống này lại với nhau để tạo thành một mạng máy tính lớn hơn. Nhưng điều kỳ diệu thực sự nằm ở con chip liên kết NV này khi mô hình ngôn ngữ lớn ngày càng lớn hơn thì tầm quan trọng của nó càng trở nên nổi bật. Vì các mô hình ngôn ngữ lớn này không còn phù hợp để chạy trên một GPU hoặc nút duy nhất nên chúng yêu cầu toàn bộ giá GPU phải hoạt động cùng nhau. Giống như hệ thống DGX mới tôi vừa đề cập, nó có thể chứa các mô hình ngôn ngữ lớn với hàng chục nghìn tỷ tham số.
NV Link Switch là một tuyệt tác công nghệ theo đúng nghĩa của nó, với 50 tỷ bóng bán dẫn, 74 cổng và tốc độ dữ liệu lên tới 400 GB mỗi cổng. Nhưng quan trọng hơn, switch còn tích hợp các chức năng hoạt động toán học và có thể trực tiếp thực hiện các hoạt động rút gọn, điều này có ý nghĩa cực kỳ quan trọng trong deep learning. Đây là giao diện mới của hệ thống DGX hiện tại.
Rất nhiều người tò mò về chúng tôi. Họ đặt ra các câu hỏi và hiểu sai về phạm vi kinh doanh của Nvidia. Mọi người thắc mắc làm thế nào Nvidia có thể trở nên lớn mạnh như vậy chỉ bằng cách sản xuất GPU. Do đó, nhiều người đã hình thành ấn tượng rằng GPU phải có hình dáng nhất định.
Tuy nhiên, điều tôi muốn cho bạn thấy bây giờ là đây thực sự là một GPU, nhưng nó không phải như bạn nghĩ. Đây là một trong những GPU tiên tiến nhất trên thế giới nhưng nó chủ yếu được sử dụng trong lĩnh vực chơi game. Nhưng tất cả chúng ta đều biết rằng sức mạnh thực sự của GPU còn vượt xa điều đó.
Mọi người hãy nhìn vào đây, đây chính là hình dạng thực sự của GPU. Đây là GPU DGX, được thiết kế để học sâu. Mặt sau của GPU này được kết nối với đường trục liên kết NV, bao gồm 5.000 dòng và dài 3 km. Những đường này là xương sống liên kết NV, kết nối 70 GPU để tạo thành một mạng máy tính mạnh mẽ. Đó là một điều kỳ diệu về cơ điện trong đó bộ thu phát cho phép chúng ta truyền tín hiệu trên dây đồng suốt toàn bộ chiều dài của nó.
Vì vậy, bộ chuyển mạch liên kết NV này, truyền dữ liệu qua dây đồng qua đường trục liên kết NV, cho phép chúng tôi tiết kiệm 20 kilowatt điện trong một giá đỡ duy nhất và 20 kilowatt đó giờ đây có thể được sử dụng hoàn toàn để xử lý dữ liệu Đây thực sự là một thành tích đáng kinh ngạc. Đây chính là sức mạnh của đường trục liên kết NV.
8. Đẩy Ethernet cho AI sáng tạo
Nhưng điều này là chưa đủ để đáp ứng nhu cầu, đặc biệt là đối với các nhà máy trí tuệ nhân tạo quy mô lớn. , thì chúng ta có một giải pháp khác. Chúng ta phải sử dụng mạng tốc độ cao để kết nối các nhà máy AI này. Chúng tôi có hai tùy chọn mạng: InfiniBand và Ethernet. Trong số đó, InfiniBand đã được sử dụng rộng rãi trong các nhà máy sản xuất siêu máy tính và trí tuệ nhân tạo trên khắp thế giới và đang phát triển nhanh chóng. Tuy nhiên, không phải trung tâm dữ liệu nào cũng có thể sử dụng InfiniBand ngay lập tức vì họ có những khoản đầu tư đáng kể vào hệ sinh thái Ethernet, đồng thời việc quản lý các bộ chuyển mạch và mạng InfiniBand đòi hỏi trình độ chuyên môn và công nghệ nhất định.
Vì vậy, giải pháp của chúng tôi là đưa hiệu suất của InfiniBand vào kiến trúc Ethernet, đây không phải là một nhiệm vụ dễ dàng. Lý do là mỗi nút, mỗi máy tính thường được kết nối với một người dùng khác nhau trên Internet, nhưng hầu hết các giao tiếp thực sự diễn ra trong trung tâm dữ liệu, tức là việc truyền dữ liệu giữa trung tâm dữ liệu và người dùng ở phía bên kia của trung tâm dữ liệu. Internet. Tuy nhiên, trong kịch bản deep learning của nhà máy trí tuệ nhân tạo, GPU không giao tiếp với người dùng trên Internet mà tiến hành trao đổi dữ liệu thường xuyên và chuyên sâu với nhau.
Họ liên lạc với nhau vì cả hai đều đang thu thập một phần kết quả. Sau đó họ phải giảm bớt và phân phối lại những kết quả từng phần này. Mô hình truyền thông này được đặc trưng bởi lưu lượng truy cập rất bùng nổ. Điều quan trọng không phải là thông lượng trung bình mà là thông lượng cuối cùng đến, bởi vì nếu bạn đang thu thập một phần kết quả từ tất cả chúng và tôi đang cố gắng nhận tất cả kết quả một phần của bạn, nếu gói cuối cùng đến muộn thì toàn bộ hoạt động sẽ trì hoãn. Độ trễ là một vấn đề quan trọng đối với các nhà máy AI.
Vì vậy, trọng tâm của chúng tôi không phải là thông lượng trung bình mà là đảm bảo rằng gói cuối cùng đến đúng giờ và không có lỗi. Tuy nhiên, Ethernet truyền thống không được tối ưu hóa cho yêu cầu có độ trễ thấp và đồng bộ hóa cao này. Để đáp ứng nhu cầu này, chúng tôi đã thiết kế một cách sáng tạo một kiến trúc đầu cuối cho phép các NIC (Thẻ giao diện mạng) và bộ chuyển mạch giao tiếp. Để đạt được mục tiêu này, chúng tôi sử dụng bốn công nghệ chính:
Đầu tiên, NVIDIA có công nghệ RDMA (Truy cập bộ nhớ trực tiếp từ xa) dẫn đầu ngành. Bây giờ chúng tôi có RDMA ở cấp độ mạng Ethernet và nó hoạt động rất tốt.
Thứ hai, chúng tôi giới thiệu cơ chế kiểm soát tắc nghẽn. Các thiết bị chuyển mạch có tính năng đo từ xa theo thời gian thực để nhanh chóng xác định và phản hồi các điều kiện tắc nghẽn trong mạng. Khi lượng dữ liệu được gửi bởi GPU hoặc NIC quá lớn, bộ chuyển mạch sẽ ngay lập tức gửi tín hiệu yêu cầu chúng giảm tốc độ gửi, nhờ đó tránh được việc tạo ra các điểm nóng mạng một cách hiệu quả.
Thứ ba, chúng tôi sử dụng công nghệ định tuyến thích ứng. Ethernet truyền thống truyền dữ liệu theo thứ tự cố định, nhưng trong kiến trúc của chúng tôi, chúng tôi có thể linh hoạt điều chỉnh dựa trên điều kiện mạng thời gian thực. Khi phát hiện tắc nghẽn hoặc một số cổng không hoạt động, chúng ta có thể gửi các gói dữ liệu đến các cổng nhàn rỗi này, sau đó thiết bị Bluefield ở đầu bên kia sẽ sắp xếp lại chúng để đảm bảo dữ liệu được trả về theo đúng thứ tự. Công nghệ định tuyến thích ứng này cải thiện đáng kể tính linh hoạt và hiệu quả của mạng.
Thứ tư, chúng tôi triển khai công nghệ cách ly tiếng ồn. Trong một trung tâm dữ liệu, tiếng ồn và lưu lượng do nhiều mô hình được huấn luyện đồng thời tạo ra có thể gây nhiễu lẫn nhau và gây ra hiện tượng giật hình. Công nghệ cách ly tiếng ồn của chúng tôi có thể cách ly những tiếng ồn này một cách hiệu quả để đảm bảo rằng việc truyền các gói dữ liệu quan trọng không bị ảnh hưởng.
Bằng cách áp dụng những công nghệ này, chúng tôi đã cung cấp thành công các giải pháp mạng hiệu suất cao, độ trễ thấp cho các nhà máy trí tuệ nhân tạo. Trong một trung tâm dữ liệu trị giá hàng tỷ đô la, nếu mức sử dụng mạng tăng lên 40% và thời gian đào tạo giảm 20%, điều này thực sự có nghĩa là một trung tâm dữ liệu trị giá 5 tỷ đô la có hiệu suất tương đương với một trung tâm dữ liệu trị giá 6 tỷ đô la, tiết lộ điều quan trọng. tác động của hiệu suất mạng đến hiệu quả chi phí tổng thể.
May mắn thay, công nghệ Ethernet với Spectrum . Đây chắc chắn là một thành tựu lớn mà chúng tôi đã đạt được trong lĩnh vực công nghệ mạng.
Chúng tôi có một dòng sản phẩm Ethernet mạnh mẽ, trong đó đáng chú ý nhất là Spectrum X800. Thiết bị này cung cấp kết nối mạng hiệu quả tới hàng nghìn GPU với tốc độ 51,2 terabyte mỗi giây và hỗ trợ 256 đường dẫn (cơ số). Tiếp theo, chúng tôi dự định ra mắt X800 Ultra một năm sau, X800 Ultra sẽ hỗ trợ 512 cơ số lên tới 512 đường dẫn, cải thiện hơn nữa dung lượng và hiệu suất mạng. X 1600 được thiết kế cho các trung tâm dữ liệu lớn hơn và có thể đáp ứng nhu cầu liên lạc của hàng triệu GPU.
Với sự tiến bộ không ngừng của công nghệ, kỷ nguyên của các trung tâm dữ liệu với hàng triệu GPU Nó đã ở gần đây rồi. Có những lý do sâu sắc đằng sau xu hướng này. Một mặt, chúng tôi mong muốn đào tạo các mô hình lớn hơn và phức tạp hơn; nhưng quan trọng hơn, các tương tác trên Internet và máy tính trong tương lai sẽ ngày càng phụ thuộc vào trí tuệ nhân tạo tổng hợp trên đám mây. Những trí tuệ nhân tạo này sẽ hoạt động và tương tác với chúng ta, tạo ra video, hình ảnh, văn bản và thậm chí cả con người kỹ thuật số. Do đó, hầu hết mọi tương tác của chúng ta với máy tính đều có sự tham gia của trí tuệ nhân tạo tổng hợp. Và luôn có một AI tổng hợp được kết nối với nó, một số chạy cục bộ, một số chạy trên thiết bị của bạn, rất nhiều trong số đó có thể chạy trên đám mây.
Những trí tuệ nhân tạo tổng hợp này không chỉ có khả năng suy luận mạnh mẽ mà còn có thể tối ưu hóa lặp đi lặp lại các câu trả lời để cải thiện chất lượng của câu trả lời. Điều này có nghĩa là chúng ta sẽ có nhu cầu tạo dữ liệu lớn trong tương lai. Tối nay, chúng ta đã chứng kiến sức mạnh của sự đổi mới công nghệ này.
Blackwell, là sản phẩm thế hệ đầu tiên của nền tảng NVIDIA, đã thu hút được nhiều sự chú ý kể từ khi ra mắt. Ngày nay, thế giới đã mở ra kỷ nguyên của trí tuệ nhân tạo sáng tạo. Đây là sự khởi đầu của một cuộc cách mạng công nghiệp mới và mọi ngóc ngách đều đang nhận ra tầm quan trọng của các nhà máy trí tuệ nhân tạo. Chúng tôi rất vinh dự khi nhận được sự hỗ trợ rộng rãi từ mọi tầng lớp, bao gồm mọi OEM (Nhà sản xuất thiết bị gốc), nhà sản xuất PC, CSP (Nhà cung cấp dịch vụ đám mây), Đám mây GPU, Đám mây có chủ quyền, Công ty viễn thông, v.v.
Chúng tôi vô cùng hài lòng vì sự thành công, sự áp dụng rộng rãi và sự nhiệt tình của ngành đối với nó đã đạt đến tầm cao chưa từng thấy của Blackwell và chúng tôi muốn bày tỏ lòng biết ơn chân thành đến mọi người. Tuy nhiên, sự tiến bộ của chúng tôi sẽ không dừng lại. Trong thời đại phát triển nhanh chóng này, chúng tôi sẽ tiếp tục nỗ lực để cải thiện hiệu suất sản phẩm, giảm chi phí đào tạo và suy luận, đồng thời tiếp tục mở rộng khả năng của trí tuệ nhân tạo để mọi doanh nghiệp đều có thể hưởng lợi từ nó. Chúng tôi tin chắc rằng khi hiệu suất được cải thiện, chi phí sẽ tiếp tục giảm. Nền tảng Hopper chắc chắn có thể là bộ xử lý trung tâm dữ liệu thành công nhất trong lịch sử.
9. Blackwell Ultra sẽ được phát hành vào năm tới và nền tảng thế hệ tiếp theo có tên là Rubin
Đây thực sự là một câu chuyện thành công gây sốc . Sự ra đời của nền tảng Blackwell, như bạn có thể thấy, không phải là một tập hợp các thành phần đơn lẻ mà là một hệ thống hoàn chỉnh tích hợp nhiều yếu tố như CPU, GPU, NVLink, NICK (các thành phần công nghệ cụ thể) và các bộ chuyển mạch NVLink. Chúng tôi cam kết kết nối chặt chẽ tất cả các GPU qua từng thế hệ sản phẩm bằng cách sử dụng các bộ chuyển mạch lớn, tốc độ cực cao để tạo thành một miền tính toán lớn và hiệu quả.
Chúng tôi tích hợp toàn bộ nền tảng vào nhà máy trí tuệ nhân tạo, nhưng quan trọng hơn là chúng tôi cung cấp nền tảng này ở dạng mô-đun cho khách hàng toàn cầu. Mục đích ban đầu của việc này là chúng tôi kỳ vọng mỗi đối tác sẽ tạo ra các cấu hình độc đáo và sáng tạo theo nhu cầu riêng của họ để thích ứng với các kiểu trung tâm dữ liệu khác nhau, các nhóm khách hàng khác nhau và các tình huống ứng dụng đa dạng. Từ điện toán biên đến viễn thông, tất cả các loại đổi mới đều có thể thực hiện được miễn là các hệ thống vẫn mở.
Để giúp bạn tự do đổi mới, chúng tôi đã thiết kế một nền tảng tất cả trong một nhưng đồng thời cung cấp cho bạn ở dạng phân rã để bạn có thể dễ dàng xây dựng các hệ thống mô-đun. Giờ đây, nền tảng Blackwell đã ra mắt đầy đủ.
NVIDIA luôn tuân thủ nhịp độ cập nhật hàng năm. Triết lý cốt lõi của chúng tôi rất rõ ràng: 1) Xây dựng các giải pháp bao trùm toàn bộ quy mô trung tâm dữ liệu; 2) Chia các giải pháp này thành các thành phần riêng lẻ và giới thiệu chúng cho khách hàng toàn cầu mỗi năm một lần; 3) Chúng tôi không tiếc công sức để đẩy tất cả các công nghệ đến Giới hạn, cho dù đó là công nghệ xử lý, công nghệ đóng gói, công nghệ bộ nhớ hay công nghệ quang học của TSMC, tất cả chúng tôi đều theo đuổi hiệu suất cao nhất.
Sau khi hoàn thành thử thách khắc nghiệt nhất về phần cứng, chúng tôi sẽ nỗ lực hết mình để đảm bảo rằng tất cả phần mềm có thể chạy trơn tru trên nền tảng hoàn chỉnh này. Trong công nghệ máy tính, quán tính của phần mềm là rất quan trọng. Khi nền tảng máy tính của chúng tôi tương thích ngược và có kiến trúc phù hợp với phần mềm hiện có, tốc độ tiếp cận thị trường của chúng tôi sẽ được cải thiện đáng kể. Do đó, khi nền tảng Blackwell ra mắt, chúng tôi đã có thể tận dụng tối đa nền tảng sinh thái phần mềm đã được thiết lập và đạt được tốc độ phản ứng thị trường đáng kinh ngạc. Năm tới chúng ta sẽ chào đón Blackwell Ultra.
Giống như dòng H100 và H200 mà chúng tôi đã ra mắt, Blackwell Ultra cũng sẽ dẫn đầu làn sóng sản phẩm thế hệ mới và mang đến những trải nghiệm sáng tạo chưa từng có. Đồng thời, chúng tôi sẽ tiếp tục thách thức các giới hạn của công nghệ và ra mắt bộ chuyển mạch quang phổ thế hệ tiếp theo, đây là nỗ lực đầu tiên trong ngành. Bước đột phá lớn này đã đạt được thành công, mặc dù tôi vẫn hơi do dự khi công khai quyết định này.
Trong nội bộ NVIDIA, chúng tôi đã quen với việc sử dụng tên mã và duy trì mức độ bảo mật nhất định. Nhiều khi, thậm chí hầu hết nhân viên trong công ty cũng không biết những bí mật này. Tuy nhiên, nền tảng thế hệ tiếp theo của chúng tôi đã được đặt tên là Rubin. Về Rubin, tôi sẽ không đi sâu vào chi tiết ở đây. Tôi hiểu sự tò mò của mọi người, nhưng xin hãy cho phép tôi giữ bí mật một chút. Bạn có thể muốn chụp ảnh hoặc nghiên cứu kỹ bản in đẹp, vì vậy hãy cứ thoải mái làm điều đó.
Chúng tôi không chỉ có nền tảng Rubin mà còn ra mắt nền tảng Rubin Ultra một năm sau đó. Tất cả các con chip hiển thị ở đây đều đang trong quá trình phát triển hoàn thiện, đảm bảo rằng mọi chi tiết đều được trau chuốt cẩn thận. Nhịp độ cập nhật của chúng tôi vẫn là mỗi năm một lần, luôn theo đuổi công nghệ tối ưu, đồng thời đảm bảo rằng tất cả các sản phẩm đều duy trì khả năng tương thích kiến trúc 100%.
Nhìn lại 12 năm qua, kể từ thời điểm Imagenet ra đời, chúng tôi Có thể thấy trước tương lai của điện toán sẽ trải qua những thay đổi mạnh mẽ. Giờ đây, tất cả những điều này đã trở thành hiện thực, trùng hợp với tầm nhìn ban đầu của chúng tôi. Từ GeForce trước năm 2012 đến NVIDIA ngày nay, công ty đã trải qua một sự chuyển đổi rất lớn. Tại đây, tôi xin chân thành cảm ơn tất cả các đối tác đã hỗ trợ và đồng hành trong suốt chặng đường.
10. Thời đại của robot đã đến
Đây là nền tảng Blackwell của NVIDIA Tiếp theo, hãy nói về trí tuệ nhân tạo và robot A. tương lai kết hợp.
Trí tuệ nhân tạo vật lý đang dẫn đầu một làn sóng mới trong lĩnh vực trí tuệ nhân tạo. Chúng rất thông thạo các định luật vật lý và có thể dễ dàng tích hợp vào cuộc sống hàng ngày của chúng ta. Để đạt được mục tiêu này, trí tuệ nhân tạo vật lý không chỉ cần xây dựng một mô hình thế giới chính xác để hiểu cách diễn giải và nhận thức thế giới xung quanh mà còn cần có khả năng nhận thức xuất sắc để hiểu sâu sắc nhu cầu của chúng ta và thực hiện nhiệm vụ một cách hiệu quả.
Nhìn về tương lai, robot sẽ không còn là một khái niệm xa vời mà sẽ ngày càng được tích hợp vào cuộc sống hàng ngày của chúng ta. Khi nhắc đến robot, người ta thường nghĩ đến những robot hình người nhưng trên thực tế, những ứng dụng của nó còn vượt xa hơn thế. Cơ giới hóa sẽ trở thành tiêu chuẩn, các nhà máy sẽ được tự động hóa hoàn toàn và robot sẽ làm việc cùng nhau để tạo ra nhiều sản phẩm được cơ giới hóa. Sự tương tác giữa họ sẽ gần gũi hơn, tạo ra môi trường sản xuất tự động hóa cao.
Để đạt được mục tiêu này, chúng ta cần vượt qua một loạt thách thức kỹ thuật. Tiếp theo, tôi sẽ trình diễn những công nghệ tiên tiến này qua video.
Đây không chỉ là tầm nhìn về tương lai mà nó đang trở thành hiện thực.
Chúng tôi sẽ phục vụ thị trường theo nhiều cách khác nhau. Đầu tiên, chúng tôi đang xây dựng nền tảng cho các loại hệ thống robot khác nhau: nhà máy và nhà kho robot, robot thao tác đối tượng, robot di động và robot hình người. Các nền tảng robot này, giống như nhiều doanh nghiệp khác của chúng tôi, dựa vào các thư viện được tăng tốc máy tính và các mô hình được đào tạo trước.
Chúng tôi sử dụng thư viện tăng tốc máy tính, các mô hình được đào tạo trước và tiến hành thử nghiệm, đào tạo và tích hợp toàn diện trong Omniverse. Như video cho thấy, Omniverse là nơi robot học cách thích nghi tốt hơn với thế giới thực. Tất nhiên, hệ sinh thái kho robot vô cùng phức tạp, đòi hỏi nhiều công ty, công cụ và công nghệ phải kết hợp với nhau để xây dựng một nhà kho hiện đại. Ngày nay, các nhà kho đang dần hướng tới cơ giới hóa hoàn toàn và một ngày nào đó sẽ hoàn toàn tự động hóa.
Trong hệ sinh thái như vậy, chúng tôi cung cấp giao diện SDK và API cho ngành công nghiệp phần mềm, ngành công nghiệp trí tuệ nhân tạo biên và các công ty, đồng thời thiết kế các hệ thống chuyên dụng cho PLC và hệ thống robot để đáp ứng các yêu cầu cụ thể như Bộ Quốc phòng nhu cầu lĩnh vực. Các hệ thống này được tích hợp thông qua các bộ tích hợp để cuối cùng tạo ra các kho hàng thông minh và hiệu quả cho khách hàng. Ví dụ: Ken Mac đang xây dựng một nhà kho robot cho Giant Group.
Tiếp theo, hãy tập trung vào lĩnh vực nhà máy. Hệ sinh thái của một nhà máy rất khác nhau. Lấy Foxconn làm ví dụ, họ đang xây dựng một số nhà máy tiên tiến nhất trên thế giới. Hệ sinh thái của các nhà máy này còn bao gồm máy tính biên, phần mềm robot để thiết kế bố trí nhà máy, tối ưu hóa quy trình làm việc và lập trình robot cũng như máy tính PLC để điều phối các nhà máy kỹ thuật số và trí tuệ nhân tạo. Chúng tôi cũng cung cấp giao diện SDK cho từng liên kết trong các hệ sinh thái này.
Những thay đổi như vậy đang diễn ra trên khắp thế giới. Foxconn và Delta đang xây dựng cơ sở song sinh kỹ thuật số cho các nhà máy của họ để đạt được sự tích hợp hoàn hảo giữa thực tế và kỹ thuật số, và Omniverse đóng một vai trò quan trọng trong việc này. Điều đáng nói là Pegatron và Wistron cũng đang đi theo xu hướng và thiết lập các cơ sở song sinh kỹ thuật số cho các nhà máy sản xuất robot tương ứng của họ.
Điều này thực sự thú vị. Tiếp theo mời các bạn thưởng thức một video hấp dẫn về nhà máy mới của Foxconn.
Nhà máy robot bao gồm ba hệ thống máy tính chính. Các mô hình trí tuệ nhân tạo được đào tạo trên nền tảng NVIDIA AI. Chúng tôi đảm bảo rằng các robot chạy hiệu quả trên hệ thống cục bộ để điều phối các quy trình của nhà máy. Đồng thời, chúng tôi sử dụng Omniverse, một nền tảng cộng tác mô phỏng, để mô phỏng tất cả các yếu tố của nhà máy bao gồm cánh tay robot và AMR (robot di động tự động). Điều đáng nói là các hệ thống mô phỏng này đều có chung một không gian ảo để đạt được sự tương tác và cộng tác liền mạch.
Khi cánh tay robot và AMR bước vào không gian ảo chung này, chúng có thể mô phỏng môi trường nhà máy thực trong Omniverse để đảm bảo xác minh và tối ưu hóa đầy đủ trước khi triển khai thực tế.
Để nâng cao hơn nữa phạm vi tích hợp và ứng dụng của giải pháp, chúng tôi cung cấp ba máy tính hiệu suất cao được trang bị các lớp tăng tốc và các mô hình trí tuệ nhân tạo được đào tạo trước. Ngoài ra, chúng tôi đã tích hợp thành công NVIDIA Manipulator và Omniverse với các hệ thống và phần mềm tự động hóa công nghiệp của Siemens. Sự hợp tác này cho phép Siemens triển khai các hoạt động vận hành bằng robot và tự động hóa hiệu quả hơn trong các nhà máy của mình trên khắp thế giới.
Ngoài Siemens, chúng tôi cũng đã thiết lập mối quan hệ hợp tác với nhiều công ty nổi tiếng các công ty. Ví dụ, Symantec Pick AI đã tích hợp NVIDIA Isaac Manipulator, trong khi Somatic Pick AI đã vận hành và vận hành thành công robot của các thương hiệu nổi tiếng như ABB, KUKA và Yaskawa Motoman.
Thời đại của robot và trí tuệ nhân tạo vật lý đã đến và chúng đang được sử dụng rộng rãi ở khắp mọi nơi. Đây không phải là khoa học viễn tưởng mà là thực tế và nó rất thú vị. Nhìn về tương lai, robot trong các nhà máy sẽ trở thành xu hướng chủ đạo và chúng sẽ tạo ra mọi sản phẩm, nhưng hai sản phẩm robot có khối lượng lớn đặc biệt bắt mắt. Đầu tiên là ô tô tự lái hoặc ô tô có mức độ tự chủ cao, trong đó Nvidia một lần nữa đóng vai trò trung tâm với nền tảng công nghệ toàn diện của mình. Năm tới chúng tôi dự định hợp tác với Mercedes-Benz, tiếp theo là Jaguar Land Rover (JLR) vào năm 2026. Chúng tôi cung cấp một gói giải pháp hoàn chỉnh nhưng khách hàng có thể chọn bất kỳ phần hoặc lớp nào của giải pháp đó dựa trên nhu cầu của họ vì toàn bộ gói trình điều khiển là mở và linh hoạt.
Tiếp theo, một sản phẩm khác có thể được các nhà máy sản xuất robot sản xuất với số lượng lớn là robot hình người. Trong những năm gần đây, đã có những đột phá lớn về khả năng nhận thức và khả năng hiểu biết thế giới, đồng thời triển vọng phát triển trong lĩnh vực này rất thú vị. Tôi đặc biệt hào hứng với robot hình người vì chúng có tiềm năng lớn nhất để thích ứng với thế giới mà chúng ta đã xây dựng cho con người.
Huấn luyện robot hình người đòi hỏi lượng dữ liệu lớn so với các loại robot khác. Vì chúng ta có các loại cơ thể tương tự nhau nên dữ liệu đào tạo phong phú được cung cấp thông qua khả năng trình diễn và video sẽ vô cùng có giá trị. Vì vậy, chúng tôi mong đợi sự tiến bộ đáng kể trong lĩnh vực này.
Bây giờ, chúng ta hãy chào đón một số người bạn robot đặc biệt. Thời đại robot đã đến, làn sóng trí tuệ nhân tạo tiếp theo. Có rất nhiều loại máy tính được sản xuất tại Đài Loan, từ các mẫu truyền thống được trang bị bàn phím cho đến các thiết bị di động nhỏ, nhẹ và dễ mang theo cũng như các thiết bị chuyên nghiệp cung cấp sức mạnh tính toán mạnh mẽ cho các trung tâm dữ liệu đám mây. Nhưng nhìn về phía trước, chúng ta sắp chứng kiến một khoảnh khắc thậm chí còn thú vị hơn - chế tạo những chiếc máy tính có thể đi lại và lăn lộn, được gọi là robot thông minh.
Những robot thông minh này có công nghệ tương tự như máy tính mà chúng ta biết một cách đáng ngạc nhiên và chúng được chế tạo dựa trên công nghệ phần cứng và phần mềm tiên tiến. Vì vậy, chúng tôi có lý do để tin rằng đây sẽ là một hành trình thực sự phi thường!