Chip adalah komponen penting dalam pengembangan artificial intelligence (AI) generatif atau kecerdasan buatan generatif karena chip berperan besar mempengaruhi seberapa cepat, murah, dan ramah lingkungan model Anda dapat dilatih dan dijalankan. Selama bertahun-tahun, Amazon Web Services (AWS) terus berinovasi untuk membuat biaya layanan lebih terjangkau sehingga membantu pelanggan menghemat biaya.
"Kami memastikan AI dapat diakses oleh semua perusahaan, dari berbagai ukuran dan industri. Itu sebabnya selama ini kami merancang chip AI kami sendiri, seperti AWS Trainium dan AWS Inferentia," kata Prasad Kalyanaraman (VP of Infrastructure Services di AWS).
Chip khusus AWS itu menawarkan performa tinggi dengan harga terjangkau, serta membuat proses pelatihan dan menjalankan model Kecerdasan Buatan Generatif lebih hemat energi. AWS Trainium dapat mempercepat dan menghemat biaya pelatihan model machine learning (ML) hingga 50% dibandingkan dengan layanan sejenis lainnya di Amazon EC2.
Sementara itu AWS Inferentia memungkinkan model untuk menghasilkan prediksi lebih cepat dan dengan biaya lebih rendah, hingga 40% lebih hemat dibandingkan layanan sejenis lainnya di Amazon EC2.
"Permintaan untuk chip AI kami cukup tinggi karena keunggulan harga dan performanya," katanya.
Trainium2 adalah chip AI generasi ketiga kami yang akan tersedia akhir tahun ini. Trainium2 dirancang untuk memberikan pelatihan hingga 4x lebih cepat dibandingkan chip Trainium generasi pertama dan dapat digunakan di EC2 UltraCluster hingga 100.000 chip. Ini memungkinkan pelatihan model dasar dan model bahasa besar dalam waktu yang jauh lebih singkat, sekaligus meningkatkan efisiensi energi hingga 2x.
Selain itu, AWS bekerja sama dengan mitra seperti NVIDIA, Intel, Qualcomm, dan AMD untuk menawarkan beragam akselerator terlengkap di cloud untuk aplikasi ML dan Kecerdasan Buatan Generatif (AI Generatif). Kami juga akan terus berinovasi untuk menghadirkan chip rancangan AWS generasi mendatang yang memberikan performa tinggi dengan harga terjangkau bagi pelanggan.
Di tengah pesatnya perkembangan AI, penting bagi organisasi untuk memilih infrastruktur komputasi yang tepat. Infrastruktur ini harus dapat membantu menekan biaya dan menjamin performa tinggi agar proses pengembangan dan peningkatan aplikasi machine learning (ML) berjalan lancar.
"Di AWS, kami dengan bangga menawarkan infrastruktur yang aman, berperforma tinggi, hemat biaya, dan hemat energi untuk membantu Anda membangun dan menskalakan aplikasi ML Anda," ujarnya.
Baca Juga: Bagaimana AWS Menjaga Keamanan Data Pelanggannya di Data Center?
Penulis | : | Adam Rizal |
Editor | : | Adam Rizal |
KOMENTAR