Find Us On Social Media :

Foxconn Bangun Fasilitas Raksasa Produksi Chip AI Nvidia GB200

By Adam Rizal, Jumat, 11 Oktober 2024 | 13:00 WIB

Nvidia GB200

Foxconn sedang membangun fasilitas manufaktur terbesar untuk memproduksi chip Nvidia GB200 sekaligus memenuhi tingginya permintaan platform Blackwell milik Nvidia. Foxconn, yang juga merupakan perakit utama iPhone untuk Apple, mendapat keuntungan dari meningkatnya penggunaan artificiaI intelligence (AI) atau kecerdasan buatan  karena memproduksi server yang mendukung teknologi tersebut 

"Kemitraan dengan Nvidia sangat strategis dan permintaan platform Blackwell dari Nvidia sangat besar. Saat ini kami sedang membangun fasilitas produksi GB200 terbesar di dunia," kata Benjamin Ting (Wakil Presiden Senior Divisi Solusi Enterprise Cloud Foxconn).

Dalam acara tahunan teknologi Foxconn di Taipei, Deepu Talla, Wakil Presiden Nvidia untuk AI dan robotika, hadir mewakili Nvidia, menggantikan CEO Jensen Huang yang tidak bisa menghadiri acara tersebut. 

Chairman Foxconn, Young Liu, menambahkan bahwa rantai pasokan Foxconn sudah siap menghadapi revolusi AI, dengan kemampuan manufaktur yang mencakup teknologi pendinginan cairan canggih dan disipasi panas untuk mendukung infrastruktur server GB200.

Sebelumnya NVIDIA memperkenalkan chip AI dan GPU AI terbaru GB200 yang terintegrasi di GPU Blackwell 200 dalam ajang GTC 2024. Blackwell B200 menawarkan peningkatan kinerja dan efisiensi yang signifikan, mampu mencapai 20 petaflops FP4 berkat 208 miliar transistor.

Tak hanya itu, chip AI Blackwell B200 juga akan menggantikan chip AI H100 yang sudah sangat populer di pasar. Sebagai perbandingan, chipset GB200 menawarkan kinerja 30 kali lipat lebih baik dari H100 dalam inferensi LLM sambil mengurangi konsumsi energi 25 kali lipat, dan tujuh kali lebih cepat dalam benchmark GPT-3 LLM.

Artinya, chip tersebut bisa menyokong inovasi AI yang lebih mumpuni. Reuters melaporkan pengumuman chip dan software baru dari Nvidia akan menentukan apakah raksasa tersebut bisa mempertahankan dominasinya meraup 80 persen pasar chip AI di tahun ini. NVIDIA juga memberikan perbandingan efisiensi daya, di mana 2.000 unit GPU Blackwell dapat melatih model dengan 1,8 triliun parameter hanya dengan 4 megawatt, jauh lebih efisien daripada GPU Hopper sebelumnya yang membutuhkan 8.000 unit GPU dan 15 megawatt. 

Selain itu, NVIDIA juga merancang chip switch jaringan baru yang dapat menangani 576 GPU dengan kecepatan komunikasi 1,8 TB/s, mengatasi masalah komunikasi dalam sistem yang menggunakan banyak GPU. NVIDIA juga memperkenalkan solusi lengkap bagi perusahaan dengan rak pendingin NVL72 yang memungkinkan 36 CPU dan 72 GPU dalam satu rak dengan cairan pendingin. 

Beberapa perusahaan besar seperti Oracle, Amazon, Google, dan Microsoft berencana untuk mengintegrasikan rak NVL72 ini ke layanan cloud mereka. Arsitektur GPU yang digunakan dalam GPU Blackwell B200 kemungkinan akan menjadi dasar bagi seri RTX 5000 yang akan datang.

NVIDIA juga mencatat antusiasme dari beberapa raksasa teknologi seperti Amazon, Alphabet, Microsoft, OpenAI, dan Oracle yang mengantre untuk membeli chip terbaru mereka. Selain itu, NVIDIA sedang beralih dari penjualan chip tunggal menjadi penjualan sistem secara keseluruhan. Mereka juga memperkenalkan beberapa alat perangkat lunak baru, termasuk microservices yang meningkatkan efisiensi dalam berbagai aplikasi AI.

Kembali ke chip B200 yang disebut 30 kali lebih kencang, Huang belum merinci hal-hal teknis lainnya. Misalnya, seberapa besar data yang diperlukan untuk melatih chatbot dengan chip tersebut. Selain itu, harga chip juga belum diumbar. NVIDIA sendiri sukses mengubah citra perusahaan dari sebelumnya hanya terkenal di kalangan pecinta game komputer, menjadi raja chip AI global. Nvidia juga berhasil menjadi primadona Wall Street dengan penjualan dua kali lipat di tahun fiskal terkini, melebihi USD 60 miliar.

Baca Juga: Tak Terdaftar PSE, Kominfo Tegas Blokir Aplikasi TEMU di Indonesia