Pengembangan artificial intelligence (AI) atau kecerdasan buatan tidak bisa terlepas dari superkomputer yang bertugas melatih dan memroses AI menjadi lebih pintar dan canggih.
Persaingan Google dan Nvidia di pasar AI sangat menarik, mengingat kedua perusahaan itu memiliki kontribusi yang signifikan.
Saat ini Nvidia mendominasi pasar pelatihan dan penerapan model AI lebih dari 90 persen. Sedangkan, Google telah merancang dan menerapkan chip AI yaitu Tensor Processing Units, atau TPU, sejak 2016 untuk menyaingi Nvidia.
Baru-baru ini Google mengklaim superkomputer AI-nya jauh lebih cepat, canggih dan efisien daripada punya Nvidia.
Google telah membangun sistem dengan lebih dari 4.000 TPU dan digabungkan dengan komponen khusus untuk menjalankan dan melatih model AI.
Superkomputer Google itu sudah berjalan sejak 2020 dan digunakan untuk melatih model PaLM Google, yang bersaing dengan model GPT OpenAI, selama 50 hari.
Peneliti Google mengklaim superkomputer berbasis TPU Google, yang disebut TPU v4, memiliki kemampuan 1,2x–1,7x lebih cepat dan menggunakan daya 1,3x–1,9x lebih sedikit daripada Nvidia A100.
Namun, Nvidia memiliki chip terbaru, H100, yang dibuat dengan teknologi manufaktur yang lebih canggih.
CEO Nvidia Jensen Huang mengatakan hasil untuk chip Nvidia terbaru, H100, secara signifikan lebih cepat daripada generasi sebelumnya.
“MLPerf 3.0 menunjukkan kinerja 4x lebih baik daripada A100,” tulis Huang dalam posting blog.
Google adalah pionir AI dan telah mengembangkan beberapa kemajuan terpenting di bidang ini selama dekade terakhir.
Sayangnya, Google dianggap ketinggalan dalam hal menjual inovasi produknya. Sebagai contoh, model dan produk AI seperti Google Bard atau OpenAI ChatGPT menggunakan chip A100 Nvidia.
Google dan OpenAI membutuhkan banyak komputer dan ratusan atau ribuan chip untuk melatih model AI dengan komputer berjalan sepanjang waktu selama berminggu-minggu atau berbulan-bulan.