Penggunaan teknologi artificial intelligence (AI) atau kecerdasan buatan telah menjadi perbincangan hangat di dunia IT dalam beberapa tahun terakhir. Teknologi AI terbukti mampu meningkatkan produktivitas kerja dan kualitas hidup manusia.
Ternyata penggunaan teknologi AI mengonsumsi energi listrik yang tinggi dan meningkatkan jumlah emisi karbon di dunia.
Hal itu dikarenakan perangkat komputer termasuk super komputer memerlukan energi listrik yang besar dalam melatih dan menjalankan model AI berukuran besar.
Ttentunya itu menjadi tantangan tersendiri, mengingat pemerintahan di seluruh dunia sedang berusaha menekan jumlah emisi karbon.
Alex de Vries dari VU Amsterdam School of Business and Economics mengatakan pertumbuhan AI menjadi penyumbang signifikan jumlah emisi karbon di dunia. Jika mesin pencarian Google sepenuhnya menggunakan teknologi AI, maka konsumsi energi yang diperlukan akan mencapai 29,3 terawatt jam per tahun. Angka itu setara dengan total konsumsi energi Irlandia setiap tahunnya.
"Pencapaian ini hampir dua kali lipat dari total konsumsi energi perusahaan pada 2020, yang sebesar 15,4 terawatt jam," katanya.
Seiring berjalannya waktu, konsumsi energi teknologi AI akan menjadi masalah yang serius. Nvidia, sebagai pemasok utama GPU AI akan mengirimkan 100.000 chip A100 pada tahun ini, yang secara kolektif akan mengonsumsi 5,7 terawatt jam per tahun.
Situasi ini akan semakin memburuk ketika pabrik-pabrik manufaktur baru mulai beroperasi dan meningkatkan kapasitas produksi mereka.
Perusahaan pembuat chip seperti TSMC, pemasok Nvidia, berinvestasi dalam pabrik baru yang dapat memproduksi 1,5 juta server per tahun pada tahun 2027, yang diestimasi akan mengonsumsi 85,4 terawatt jam per tahun.
Dalam konteks ini, banyak bisnis bersaing untuk mengintegrasikan AI ke dalam produk mereka. Nvidia tidak akan menghadapi kesulitan dalam menjual stok mereka.
"Penggunaan AI harus dilakukan secara bijak karena dampaknya yang besar terhadap lingkungan," ujarnya seperti dikutip New Scientist.
Juru bicara OpenAI menyadari bahwa pelatihan model berukuran besar dapat menghabiskan banyak energi. Maka dari itu perusahaan terus berupaya meningkatkan efisiensi.
"Kami sangat memikirkan penggunaan daya komputasi kami sebaik-baiknya,” ungkap juru bicara OpenAI.
Juru bicara Nvidia mengakui bahwa menjalankan AI pada GPU-nya lebih hemat energi dibandingkan jenis chip alternatif yang disebut CPU.
“Komputasi yang dipercepat pada teknologi Nvidia adalah model komputasi paling hemat energi untuk AI dan beban kerja pusat data lainnya. Produk kami memiliki performa yang lebih baik dan hemat energi di setiap generasi baru,” klaimnya.
Baca Juga: Teknologi AI Google ini Sukses Mengurangi Polusi dan Emisi Karbon
Baca Juga: Drone Bantu Transformasi Bursa Karbon dan Mitigasi Perubahan Iklim
Source | : | New Scientist |
Penulis | : | Adam Rizal |
Editor | : | Adam Rizal |
KOMENTAR