Find Us On Social Media :

Samsung Klaim Kemampuan Chip AI-nya Lebih Hemat Daya dari Chip NVIDIA

By Adam Rizal, Sabtu, 23 Desember 2023 | 11:00 WIB

Ilustrasi Chip AI (Artificial Intelligence)

Samsung menggandeng perusahaan teknologi Naver mengembangkan chip artificial intelligence (AI) atau kecerdasan buatan untuk bersaing dengan Nvidia, menyusul permintaan teknologi dan solusi AI yang meningkat.

Samsung dan Naver fokus mengembangkan chip AI yang bertenaga dan hemat daya listrik. Bahkan, Samsung mengeklaim chip AI buatannya memiliki efisiensi daya 8 kali lebih tinggi dibandingkan pesaingnya seperti NVIDIA.

Menurut laporan dari Business Korea, prototipe chip AI hasil kerja sama Samsung x Naver telah dipresentasikan dalam sebuah acara di hadapan Kementerian Sains dan TIK Korea Selatan di Seoul. Meskipun chip AI tersebut belum memiliki nama, disebutkan bahwa chip ini akan digunakan untuk model AI skala besar milik Naver yang disebut HyperCOVA X.

Chip AI Samsung x Naver, yang menggunakan desain semikonduktor field-programmable gate array (FPGA), akan difokuskan pada tugas inference dalam model AI. Inference adalah kemampuan model AI menghasilkan output logis setelah menyelesaikan fase "pembelajaran".

Sebagaimana disebutkan sebelumnya, klaim efisiensi daya chip AI Samsung x Naver ini mencapai 8 kali lipat dibandingkan dengan kartu grafis AI dari NVIDIA, meskipun produk spesifik tidak diungkapkan. Efisiensi daya ini diperoleh melalui penggunaan jenis memori LPDDR, memungkinkan chip memberikan kinerja komputasi yang setara dengan konsumsi daya yang lebih rendah.

Meskipun belum ada rincian lebih lanjut, jadwal produksi massal atau pengiriman produk chip AI hasil kerja sama Samsung dan Naver belum diumumkan. Kolaborasi antara kedua perusahaan ini telah berlangsung selama setahun sejak penandatanganan MOU pada Desember 2022.

Pabrikan Terbesar

Nvidia H200

NVIDIA sangat cerdas melihat peluang bisnis artificial intelligence (AI) atau kecerdasan buatan yang sedang naik daun dengan menjual Chip AI A100, H100 dan H200. Hasilnya, perusahaan teknologi raksasa berlomba-lomba mengantri mendapatkan pasokan Chip AI tersebut dan membuat chip AI NVIDIA langka di pasar serta membuat harganya yang melambung.

Fenomena itu membuat keuntungan NVIDIA meroket dan menjadikannya sebagai pabrikan semikonduktor terbesar di dunia, mengalahkan TSMC dan Intel. Informasi ini berasal dari analis keuangan, Dan Nystedt, yang merangkum data keuangan dari empat perusahaan chip utama, yaitu Intel, Nvidia, Samsung Semiconductor, dan TSMC sejak kuartal-I 2021. 

Pada kuartal-III 2023, Nvidia berhasil menggeser TSMC (Taiwan Semiconductor Manufacturing Company) dan kini memimpin dengan pendapatan mencapai 18,12 miliar dolar AS (Rp 281,4 triliun). Posisi kedua ditempati oleh TSMC dengan pendapatan 17,28 miliar dolar (Rp 268,4 triliun), diikuti oleh Intel dan Samsung pada posisi ketiga dan keempat dengan pendapatan masing-masing 14,16 miliar dolar AS (Rp 220 triliun) dan 12,52 miliar dolar AS (Rp 194,4 triliun).

Hal itu adalah prestasi gemilang Ini karena Nvidia berada di posisi terbawah di antara empat perusahaan chip terbesar pada awal tahun. Grafik pendapatan Nvidia mengalami lonjakan tajam sejak kuartal pertama tahun ini, dengan pertumbuhan 206 persen pada kuartal-III 2023 dibandingkan periode yang sama tahun sebelumnya. 

Dari pendapatan mencapai 18,12 miliar dolar AS, Nvidia meraih keuntungan sebesar 10,42 miliar dolar AS (Rp 162,8 triliun), menjadi yang terbesar di atas TSMC yang mencatat laba sebesar 7,21 miliar dolar AS (Rp 112 triliun) seperti dikutip Tom's Hardware. Keberhasilan Nvidia dipengaruhi oleh kepemilikan properti intelektual (IP), menjadikan pendapatan dan keuntungan per chip yang dihasilkannya lebih besar dibandingkan TSMC, yang fokus pada tahap manufaktur produksi chip.

Salah satu pendorong utama pendapatan Nvidia berasal dari unit bisnis Data Center yang mencakup produk chip kecerdasan buatan. Menurut laporan Nvidia, unit bisnis ini terus mengalami peningkatan pendapatan sejak kuartal-IV tahun fiskal 2022 hingga saat ini.

Chipset Terganas

NVIDIA resmi meluncurkan chip AI terbaru H200 sekaligus menggantikan pendahulunya H100. Chip AI H200 menawarkan peningkatan signifikan, terutama pada GPU yang kini menggunakan memory jenis baru, HBM3e. Dengan HBM3e, chip AI H200 dapat mencapai memory bandwidth hingga 4.8 terabyte per detik, meningkat dari 3.35 terabyte per detik pada H100, dan kapasitas memory juga naik menjadi 141 GB dari 80 GB. 

Spesifikasi baru itu akan meningkatkan performa chip, khususnya dalam bidang generative AI. NVIDIA memastikan chip H200 kompatibel dengan sistem yang telah menggunakan chip H100 sebelumnya, bahkan dapat digunakan bersamaan. Hal ini memungkinkan pengguna H100 untuk beralih ke H200 tanpa perlu mengubah sistem yang sudah ada. 

Meski NVIDIA belum mengumumkan harga resmi, chip H200 dijadwalkan akan tersedia untuk pembelian pada awal tahun 2024, dengan perusahaan-perusahaan besar seperti Amazon, Google, Microsoft, dan Oracle diyakini menjadi pelanggan pertama yang akan mengadopsi teknologi ini.

Baca Juga: Bill Gates Ungkap Prediksi Inovasi AI Tahun Depan, Gantikan Manusia?

 Baca Juga: Bocoran Fitur iPhone 16 Series, Ada Fitur AI Generatif Mirip ChatGPT