Find Us On Social Media :

AWS dan NVIDIA Mengumumkan Kolaborasi Strategis. Seperti Apa?

By Dayu Akbar, Rabu, 29 November 2023 | 14:30 WIB

Dalam ajang AWS re:Invent, Amazon Web Services (AWS), perusahaan Amazon.com, dan NVIDIA mengumumkan perluasan kolaborasi strategis untuk menghadirkan teknologi infrastruktur, perangkat lunak, dan layanan paling canggih untuk mendukung inovasi kecerdasan buatan (AI) generatif.Kedua perusahaan ini akan menyatukan teknologi terbaik NVIDIA dan AWS, mulai dari sistem multi-node terbaru NVIDIA yang menampilkan GPU, CPU, dan perangkat lunak AI generasi mendatang, hingga virtualisasi dan keamanan tingkat lanjut AWS Nitro System, interkoneksi Elastic Fabric Adapter (EFA), dan UltraCluster skalabilitas yang ideal untuk melatih model dasar dan membangun aplikasi AI generatif.Kolaborasi yang diperluas ini dibangun berdasarkan hubungan jangka panjang yang telah mendorong era AI generatif dengan menawarkan pionir machine learning (ML) awal kinerja komputasi yang diperlukan untuk memajukan teknologi tercanggih ini.Sebagai bagian dari perluasan kolaborasi untuk meningkatkan AI generatif di semua industri, AWS akan menjadi penyedia cloud pertama yang menghadirkan NVIDIA GH200 Grace Hopper Superchip dengan teknologi multi-node NVLink baru ke cloud. Platform multi-node NVIDIA GH200 NVL32 menghubungkan 32 Superchip Grace Hopper dengan teknologi NVIDIA NVLink dan NVSwitch ke dalam satu instance. Platform ini akan tersedia di instans Amazon Elastic Compute Cloud (Amazon EC2) yang terhubung dengan jaringan kuat Amazon (EFA), didukung oleh virtualisasi tingkat lanjut (AWS Nitro System), dan pengelompokan skala besar (Amazon EC2 UltraClusters), yang memungkinkan pelanggan bersama untuk melakukan penskalaan hingga ribuan Superchip GH200.NVIDIA dan AWS akan berkolaborasi untuk menyelenggarakan NVIDIA DGX Cloud, pelatihan-sebagai-layanan-AI-NVIDIA, di AWS. Ini akan menjadi DGX Cloud pertama yang menampilkan GH200 NVL32, memberikan pengembang memori bersama terbesar dalam satu instans. DGX Cloud on AWS akan mempercepat pelatihan AI generatif mutakhir dan model bahasa besar yang dapat menjangkau lebih dari 1 triliun parameter.NVIDIA dan AWS bermitra dalam Project Ceiba untuk membangun superkomputer AI bertenaga GPU tercepat di dunia, sistem berskala besar dengan interkoneksi GH200 NVL32 dan Amazon EFA yang dihosting oleh AWS untuk tim penelitian dan pengembangan NVIDIA sendiri. Superkomputer pertama ini yang dilengkapi 16.384 Superchip NVIDIA GH200 dan mampu memproses 65 exaflop AI akan digunakan oleh NVIDIA untuk mendorong gelombang inovasi AI generatif berikutnya.AWS akan memperkenalkan tiga instans Amazon EC2 tambahan baru: instans P5e, yang didukung oleh GPU NVIDIA H200 Tensor Core, untuk beban kerja AI dan HPC generatif berskala besar dan mutakhir, serta instans G6 dan G6e, yang didukung oleh GPU NVIDIA L4 dan NVIDIA L40S GPU, masing-masing, untuk berbagai aplikasi seperti penyempurnaan AI, inferensi, beban kerja grafis dan video.

Instans G6e sangat cocok untuk mengembangkan alur kerja 3D, digital twins, dan aplikasi lainnya menggunakan NVIDIA Omniverse™, sebuah platform untuk menghubungkan dan membangun aplikasi 3D generatif yang mendukung AI.“AWS dan NVIDIA telah berkolaborasi selama lebih dari 13 tahun, dimulai dengan cloud GPU pertama di dunia. Saat ini, kami menawarkan solusi GPU NVIDIA terluas untuk beban kerja termasuk grafis, game, komputasi kinerja tinggi, pembelajaran mesin, dan kini AI generatif,” kata Adam Selipsky, CEO di AWS. “Kami terus berinovasi bersama NVIDIA untuk menjadikan AWS tempat terbaik untuk menjalankan GPU, menggabungkan NVIDIA Grace Hopper Superchip generasi berikutnya dengan jaringan kuat EFA AWS, clustering skala besar EC2 UltraClusters, dan kemampuan virtualisasi canggih Nitro.”“AI Generatif mengubah beban kerja cloud dan menjadikan komputasi yang dipercepat sebagai fondasi pembuatan konten yang beragam,” kata Jensen Huang, pendiri dan CEO NVIDIA.

“Didorong oleh misi bersama untuk menghadirkan AI generatif canggih yang hemat biaya kepada setiap pelanggan, NVIDIA dan AWS berkolaborasi di seluruh tumpukan komputasi, yang mencakup infrastruktur AI, perpustakaan akselerasi, model dasar, hingga layanan AI generatif.”