• About
  • Advertise
  • Privacy & Policy
  • Contact
NQ NEWS
  • Kiến thức tổng hợp
    • Development
    • Deep Learning
    • Cloud Computing
    • Kiến thức bảo mật
    • Tin học văn phòng
  • Thủ thuật
    • Phần Mềm
    • Sửa lỗi máy tính
    • Bảo mật máy tính
    • Tăng tốc máy tính
    • Thủ thuật Wifi
  • Quản trị hệ thống
    • Giải pháp bảo mật
    • Mail Server
    • Mạng LAN – WAN
    • Máy chủ
    • Windows Server 2012
  • Tin tức
No Result
View All Result
  • Kiến thức tổng hợp
    • Development
    • Deep Learning
    • Cloud Computing
    • Kiến thức bảo mật
    • Tin học văn phòng
  • Thủ thuật
    • Phần Mềm
    • Sửa lỗi máy tính
    • Bảo mật máy tính
    • Tăng tốc máy tính
    • Thủ thuật Wifi
  • Quản trị hệ thống
    • Giải pháp bảo mật
    • Mail Server
    • Mạng LAN – WAN
    • Máy chủ
    • Windows Server 2012
  • Tin tức
No Result
View All Result
NQ NEWS
No Result
View All Result
Home Kiến thức tổng hợp Deep Learning

Tắng tốc I/O cho các cụm máy chủ đa GPU

@admiz by @admiz
09/05/2021
in Deep Learning
0
Tắng Tốc I/o Cho Các Cụm Máy Chủ đa Gpu 605d677be7815.jpeg

Khi bàn đến các máy chủ tăng tốc GPU, có thể nói hệ thống DGX-2 của Nvidia rất khó bị đánh bại. 16 GPU V100 của nó được hàn lại cùng với kết nối NVLink cung cấp 2 petaflops hiệu năng tensor floating point hoặc 125 teraflops hiệu năng double precision. Cung cấp cho các GPU đó là một nửa terabyte bộ nhớ HBM2 xếp chồng lên nhau có thể cung cấp tới 16 TB mỗi giây. Nhưng nếu bạn muốn kết nối nhiều máy chủ DGX-2 với nhau và chạy khối lượng công việc nặng về I/O thông qua cụm đó, bạn sẽ cần một số phần cứng và phần mềm bổ sung để đảm bảo các GPU đó không bị thiếu dữ liệu giữa chừng.

Về cơ bản, đó là vì DGX-2 được thiết kế theo kiến ​​trúc scale-up (nâng cấp) chứ không phải scale-out (mở rộng). Điều đó có nghĩa là có một nút thắt cổ chai dữ liệu cố hữu vào và ra khỏi máy chủ đó. May mắn thay, một số thứ cần thiết để cụm DGX-2 giải quyết với mức I/O cao hiện đã có: Card giao tiếp Mellanox NIC, cung cấp phần cứng giao tiếp mạng hiệu suất cao và hỗ trợ RDMA; GPUDirect, công nghệ RDMA hỗ trợ đường kết nối dữ liệu trực tiếp giữa GPU và các thiết bị ngang hàng qua PCI-Express; Thư viện Nvidia Collective Communications Library (NCCL), một package cung cấp khả năng giao tiếp được tối ưu hóa cho các thiết lập đa GPU và đa node; và GPUDirect Storage, thiết lập đường kết nối trực tiếp giữa bộ nhớ GPU và storage. (Trên thực tế, GPUDirect Storage hiện chỉ khả dụng cho những khách hàng đăng ký sớm và dự kiến sẽ có mặt rộng rãi hơn trong nửa đầu năm 2020).

Giải pháp hạ tầng Deep Learning, Trí tuệ Nhân tạo - AI

Phần còn thiếu cho đến bây giờ là một lớp phần mềm kết hợp tất cả các yếu tố này lại với nhau và cung cấp khả năng tăng tốc I/O của hệ thống lưu trữ cho các ứng dụng GPU được scale-out ở quy mô lớn. Tại SC19 tuần này, Giám đốc điều hành của Nvidia, Jensen Huang, đã công bố một con mãnh thú như vậy, mà công ty gọi là Magnum IO. Về cơ bản, đây là bộ phần mềm cung cấp API được thiết kế để giải tỏa nút cổ chai I / O cho các máy chủ đa GPU này. Theo Huang, Magnum IO là một trong những điều lớn nhất chúng tôi đã làm trong năm qua. Lí thuyết hợp lý cho tuyên bố đó là rất ít công nghệ khác mà họ đã phát triển gần đây có thể tăng tốc khối lượng công việc tăng tốc GPU lên mức độ này – lên đến 20X trong một số trường hợp.

Bộ phần mềm mới này nhằm vào các nhà khoa học và nhà nghiên cứu dữ liệu đang xử lý các bộ dữ liệu lớn sử dụng trong trí tuệ nhân tạo và các ứng dụng điện toán hiệu năng cao khác. Để giải quyết vấn đề đó, Magnum IO giao tiếp với ngăn xếp phần mềm CUDA-X của Nvidia, cung cấp khả năng tăng tốc GPU trên một loạt các gói AI và HPC thường được sử dụng.

Là một vấn đề thực tế, hệ thống lưu trữ và tập tin bên ngoài cũng phải giữ kết thúc của món hời hiệu suất. Các đối tác lưu trữ ban đầu bao gồm DataDirect Networks, Excelero, IBM Spectrum, Pure Storage và WekaIO, mang đến cho bạn cảm giác về mức độ hiệu năng lưu trữ mà Nvidia có trong tâm trí. Ý tưởng chung là tận dụng lợi thế của việc lưu trữ không bay hơi (đặc biệt là NVM-Express), độc lập hoặc trong các loại vải mạng.

Ở cấp độ phần cứng, băng thông dữ liệu cần thiết được phân phối bằng cách trang bị máy chủ GPU với rất nhiều NIC nhanh, trong trường hợp Huang mô tả, sử dụng tám bộ điều hợp Mellanox 100Gbps cho mỗi máy chủ DGX-2. Có lẽ, Magnum IO sẽ hoạt động với các loại máy chủ đa GPU khác, do Nvidia đã liệt kê Cray / HPE, Dell EMC, IBM, Lenovo, Inspur, Penguin Computing, Atos và Supermicro, với tư cách là đối tác của Magnum IO OEM. Huang cũng đề cập rằng họ đang xem xét các nhà cung cấp NIC khác ngoài Mellanox, nhưng không rõ anh ta có ý định gì.

Thiết lập 8-NIC DGX-2 mà anh ta sử dụng làm ví dụ cung cấp một băng thông khổng lồ 100 GB/giây đến và đi từ máy chủ. Băng thông đó là thứ tự của băng thông bộ nhớ trên CPU, ông Huang Huang chỉ ra.

Magnum IO cũng có thể được xếp lớp bên dưới RAPIDS, ngăn xếp khoa học dữ liệu được tăng tốc của Nvidia mà chúng tôi đã báo cáo vào năm ngoái . Thuận tiện, bộ phần mềm này cũng hỗ trợ cấu hình đa GPU, đa nút. Nó đã được sử dụng tại một số địa điểm nổi bật của HPC, bao gồm Phòng thí nghiệm quốc gia Oak Ridge, NASA, Trung tâm siêu máy tính San Diego và Phòng thí nghiệm Berkeley.

Áp dụng Magnum IO cho số liệu TPC-H, điểm chuẩn hỗ trợ quyết định được sử dụng để đo hiệu suất truy vấn trên cơ sở dữ liệu 10TB, tăng tốc độ thực thi theo hệ số 20. Trên ứng dụng sinh học cấu trúc trong thế giới thực bằng gói Visual Phân tích động học (VMD), Magnum IO tăng hiệu năng thời gian chạy lên gấp 3 lần.

Magnum IO cũng đã được sử dụng để tăng tốc trực quan hóa Mars Lander, mà Huang tuyên bố là trực quan hóa khối lượng tương tác lớn nhất thế giới. Trong thiết lập này, bốn máy chủ DGX-2, có khả năng truyền dữ liệu với tốc độ 400 GB / giây, đã được sử dụng để ăn 150 TB dữ liệu mô phỏng.

Với các loại ứng dụng được phối hợp bởi Magnum IO, Nvidia đã phát triển một kiến ​​trúc tham chiếu các loại, mà Huang gọi là “supercomputing analytics Instrument”. Ở dạng ban đầu, nó bao gồm một máy chủ DGX-2 được trang bị tám Mellanox 100Gbps NIC và 30 TB ổ lưu trữ NVM-Express. Nvidia dường như không bán một hệ thống như vậy vào thời điểm này (ít nhất, không có giá nào được đưa ra), mặc dù có lẽ người ta có thể lắp ráp một hệ thống như vậy mà không gặp quá nhiều khó khăn. Một lần nữa, chúng tôi nghĩ rằng giả định ở đây là các đối tác OEM của Nvidia sẽ tiếp nhận điều này và cung cấp các phiên bản của riêng họ.

Các hệ thống này sẽ không hề rẻ – một máy chủ DGX-2 chưa được bán lẻ có giá 399.000 USD – nhưng nếu bạn đang tìm kiếm khả năng tăng tốc GPU được scale-out và bạn có bộ dữ liệu lớn để sử dụng, điều này có thể phù hợp với cái bill phải trả. Chúng tôi hy vọng Nvidia sẽ nói nhiều hơn về các công nghệ này trong tương lai.

Previous Post

Artificial Intelligence of Things (AIoT) là gì?

Next Post

Dự đoán chiến lược của Gartner cho năm 2020

Related Posts

Nvidia Công Bố Phiên Bản Pcie 4.0 Của A100: Gpu 250w Trên Form Factor Chuẩn 605d66d30fe7c.png
Deep Learning

NVIDIA công bố phiên bản PCIe 4.0 của A100: GPU 250W trên form factor chuẩn

19/05/2021
Computer Vision – Thị Giác Máy Tính Là Gì? 605d66cbbaaa4.jpeg
Deep Learning

Computer Vision – Thị giác máy tính là gì?

19/05/2021
Những Cuốn Sách Hàng đầu Về Deep Learning 605d66c4175f0.jpeg
Deep Learning

Những cuốn sách hàng đầu về Deep Learning

19/05/2021
Deep Learning Trong Lĩnh Vực Tài Chính: Cơ Hội Thúc đẩy Tăng Trưởng 605d66be30595.png
Deep Learning

Deep Learning trong lĩnh vực tài chính: Cơ hội thúc đẩy tăng trưởng

19/05/2021
Vai Trò Của Iot Và Ai Trong Ngành Công Nghiệp Sản Xuất 605d66b94509e.jpeg
Deep Learning

Vai trò của IoT và AI trong ngành công nghiệp sản xuất

19/05/2021
Giới Thiệu Gpu Quadro Rtx 8000 Của Nvidia 605d66b2e9d37.jpeg
Deep Learning

Giới thiệu GPU Quadro RTX 8000 của NVIDIA

19/05/2021
Next Post
Dự đoán Chiến Lược Của Gartner Cho Năm 2020 605d678524298.png

Dự đoán chiến lược của Gartner cho năm 2020

Bài mới nhất

Dns Là Gì? Chức Năng, Cách Thức Hoạt động Và Nguyên Tắc Sử Dụng Hiệu Quả 612d236260cb2.jpeg

DNS là gì? Chức năng, cách thức hoạt động và nguyên tắc sử dụng hiệu quả

13/05/2025
Cpanel Là Gì Và Hướng Dẫn Sử Dụng Cpanel Hiệu Quả Cho Người Mới 612d235c02794.png

Cpanel là gì và hướng dẫn sử dụng Cpanel hiệu quả cho người mới

13/05/2025
Website Defacement Là Gì Và Cách Khắc Phục Hiệu Quả Cho Website 612d235622440.png

Website Defacement là gì và cách khắc phục hiệu quả cho website

12/05/2025
8 Cách Quản Lý Data Khách Hàng Hiệu Quả Cho Doanh Nghiệp 612d234c2b5ad.jpeg

8 cách quản lý data khách hàng hiệu quả cho doanh nghiệp

12/05/2025
Địa Chỉ Email Là Gì Và Cách để Tạo Lập địa Chỉ Mail Chuyên Nghiệp 612d23693d14c.jpeg

Địa chỉ email là gì và cách để tạo lập địa chỉ mail chuyên nghiệp

11/05/2025

Danh mục

  • Android
  • Bảo mật máy tính
  • Bảo mật, Antivirus
  • Chuyện công nghệ
  • Deep Learning
  • Development
  • Dịch vụ công trực tuyến
  • Dịch vụ nhà mạng
  • Giải pháp bảo mật
  • Hệ thống
  • Hệ thống
  • iPhone
  • Kiến thức bảo mật
  • Kiến thức cơ bản phổ thông
  • Kiến thức Marketing căn bản
  • Kiến thức tổng hợp
  • Lập trình
  • Linux
  • Linux OS
  • macOS
  • Mail Server
  • Mạng LAN – WAN
  • Máy ảo
  • Máy chủ
  • ms excel
  • ms-powerpoint
  • Nền tảng điện toán đám mây
  • Phần cứng
  • Phần Mềm
  • Quản trị hệ thống
  • Raspberry Pi
  • Sửa lỗi máy tính
  • Tăng tốc máy tính
  • Thủ thuật
  • Thủ thuật SEO
  • Thủ thuật Wifi
  • Tiện ích hệ thống
  • Tin học văn phòng
  • Tin tức
  • Uncategorized
  • Ứng dụng
  • Website
  • Windows Server 2012

Thẻ

#app #chatbot #chatbot tự động #CRM #Kiến thức cơ bản #Techblog #Thiết kế website Android apple CPU Email Marketing Google Google Drive hacker HTML hàm python hàm python có sẵn hình nền hình nền máy tính học css học python học SQL ios iphone iphone 12 iPhone X macos Microsoft mssql MS SQL Server ngôn ngữ lập trình python Raspberry Pi Samsung smartphone SQL SQL Server tham số trong C thủ thuật windows 10 tài liệu python windows windows 10 YouTube điện thoại thông minh ứng dụng
  • About
  • Advertise
  • Privacy & Policy
  • Contact

© 2022 Pha Le Solution

No Result
View All Result
  • Home

© 2022 Pha Le Solution