Find Us On Social Media :

Rilis Cip AI MI300X, AMD Fokus Pada Tiga Area Pengembangan AI

By Liana Threestayanti, Jumat, 16 Juni 2023 | 18:30 WIB

AMD mengumumkan rangkaian produk, strategi, dan mitra ekosistem yang akan membentuk masa depan komputasi. Salah satu pengumuman yang mencuri perhatian adalah cip artificial intelligence (AI), MI300X. (Dr. Lisa Su, AMD Chair & CEO)

Dalam gelaran “Data Center and AI Technology Premiere,” AMD mengumumkan rangkaian produk, strategi, dan mitra ekosistem yang akan membentuk masa depan komputasi. Salah satu pengumuman yang mencuri perhatian adalah cip artificial intelligence (AI), MI300X.

AMD Chair & CEO, Dr. Lisa Su mengatakan, AI adalah teknologi penentu yang membentuk komputasi generasi selanjutnya dan menjadi peluang pertumbuhan strategis terbesar bagi AMD. 

Lisa juga membeberkan tiga area yang menjadi fokus AMD dalam mengembangkan AI. Pertama adalah menghadirkan portofolio luas CPU, GPU, dan solusi adaptive computig berkinerja tinggi untuk kebutuhan training dan inferensi AI yang mencakup data center, edge, dan endpoint cerdas. 

“Kedua, mengembangkan platform software terbuka dan proven untuk memungkinkan hardware AI kami dideploy secara luas dan mudah,” jelas Lisa. 

Dan fokus ketiga adalah bekerja sama dengan industri, memperluas kemitraan yang sudah ada secara lebih mendalam dan kolaboratif untuk benar-benar memungkinkan ekosistem ini mengakselerasi solusi AI berskala besar. “Karena di bidang ini semuanya adalah tentang ekosistem,” Lisa Su menegaskan. 

Baca juga: AMD Rilis Prosesor Ryzen PRO 7040 Series Mobile dengan Ryzen AI

Rilis MI300X, AMD Lihat Peluang Akselerator AI untuk Data Center

Di antara peluang pertumbuhan AI, AMD melihat potensi besar pada AI accelerator untuk data center. “[Pasar] akselerator AI untuk data center ini tumbuh sekitar US$30 miliar tahun ini dengan compound annual growth rate di  atas 50% pada tahun 2027,” ungkap Lisa Su. 

Oleh karena itu, menurut Lisa, AMD sangat fokus untuk mempercepat penyebaran platform AI AMD dalam skala besar di data center. Strategi ini diwujudkan dengan peluncuran akselerator AMD Instinct™ MI300 Series, termasuk akselerator AMD Instinct™ MI300X, pada akhir tahun ini dan pertumbuhan ekosistem software AI enterprise-ready yang dioptimalkan untuk hardware AMD.   

MI300X didasarkan pada arsitektur akselerator AMD CDNA™ 3 generasi berikutnya dan mendukung memori HBM3 hingga 192 GB untuk menyediakan komputasi dan efisiensi memori yang diperlukan untuk pelatihan large language model (LLM) model bahasa, serta inferensi untuk beban kerja AI generatif. Sebagai perbandingan, NVidia H100 mendukung memory 120GB. 

Dengan memori besar AMD Instinct MI300X, pelanggan sekarang dapat memasukkan model bahasa besar seperti Falcon-40, yang menjalankan 40 miliar parameter model pada satu akselerator MI300X. Sebagai informasi, LLM untuk AI generatif membutuhkan memori yang besar untuk menjalankan kalkulasi dalam jumlah besar. GPT-3 dari OpenAI, misalnya, memiliki 175 miliar paramater.

AMD juga memperkenalkan Platform AMD Instinct™, yang menyatukan delapan akselerator MI300X ke dalam desain standar industri untuk inferensi dan pelatihan AI. MI300X akan mulai memberikan sampel kepada para pelanggan utama mulai kuartal ke-3 (Q3). AMD juga mengumumkan bahwa AMD Instinct MI300A, akselerator APU pertama di dunia untuk beban kerja HPC dan AI, kini sedang dalam proses sampling ke pelanggan.