Find Us On Social Media :

Microsoft dkk Suntik Dana $110 Juta ke Startup Chip AI d-Matrix

By Rafki Fachrizal, Kamis, 7 September 2023 | 14:15 WIB

Ilustrasi Chip AI (Artificial Intelligence)

Startup d-Matrix baru-baru ini dilaporkan telah mengumpulkan pendanaan seri B sebesar $110 juta.

Investasi itu didapatkan dari perusahaan investasi Temasek dan Playground Global serta M12, perusahaan modal ventura milik Microsoft.

Sebelumnya, d-Matrix diketahui telah mengumpulkan $44 juta dalam putaran pendanaan dengan Playground Global.

Berbasis di Silicon Valley, d-matrix merupakan startup pengembang chip AI (artificial intelligence). d-Matrix berbeda dengan perusahaan chip lainnya (misalnya NVIDIA), karena startup ini berfokus pada chip untuk inferensi AI.

Sederhananya, inferensi AI adalah proses meningkatkan akurasi prediksi AI generatif (seperti ChatGPT) atau LLMs (large language models) alias model bahasa besar. Proses itu terjadi setelah AI dilatih.

d-Matrix merancang chip dengan "komputasi dalam memori" digital yang memungkinkan kode komputer AI berjalan lebih efisien.

Selain itu, teknologi chip d-Matrix menggunakan lebih sedikit energi untuk mengolah data yang diperlukan untuk menghasilkan respons AI generatif.

Produk andalan dari d-Matrix adalah Corsair, mesin komputasi dalam memori untuk inferensi AI. Kemampuan desain untuk menyimpan model AI sepenuhnya di dalam memori adalah hal baru dan dibangun berdasarkan chiplet d-Matrix sebelumnya, yaitu chiplet Nighthawk, Jayhawk-I, dan Jayhawk II.

Dengan dana segar ini, d-Matrix akan berupaya mengkomersialkan Corsair. Startup ini ingin memperbaiki masalah perusahaan AI dan LLMs yang tidak memiliki daya komputasi yang cukup untuk menjalankan beban kerja yang mereka perlukan.

Untuk mengatasi kemacetan memori ini, d-Matrix membuat platform ‘Digital Memory In Compute’ berbasis chiplet yang menurut d-Matrix, dapat mengurangi total biaya kepemilikan proses inferensi AI. Corsair diperkirakan akan diluncurkan secara resmi pada tahun depan atau 2024.

“Perkembangan komputasi AI saat ini tidak berkelanjutan karena TCO (total cost of ownership) untuk menjalankan inferensi AI meningkat pesat,” kata Sid Sheth, Founder dan CEO d-Matrix, dikutip dari TechRepublic.

“Tim d-Matrix mengubah aspek ekonomi biaya penerapan inferensi AI dengan solusi komputasi yang dirancang khusus untuk LLMs, dan putaran pendanaan ini memvalidasi posisi kami di industri ini.”

Kabarnya, Microsoft sendiri telah berkomitmen untuk mengevaluasi produk chip buatan d-Matrix supaya bisa digunakan oleh raksasa teknologi itu ketika resmi diluncurkan tahun depan.

Baca Juga: Tantang ChatGPT, Tencent Kenalkan Chatbot AI Canggih 'Hunyuan'

Baca Juga: Telkom Pakai AI untuk Tingkatkan Efisiensi Jaringan dan Mutu Produk