LG AI Research memperkenalkan model artificial intelligence (AI) atau kecerdasan buatan EXAONE yang open-source dan menjadi model AI berbahasa Korea pertama di dunia. Kehadiran EXAONE adalah bukti komitmen LG mengikuti tren AI global sekaligus mewakili Korea di industri AI yang saat ini didominasi oleh raksasa teknologi dari Amerika Serikat, China, dan Timur Tengah.
EXAONE 3.0 adalah model AI open-source yang menggunakan arsitektur Transformer khusus Decoder. Model AI dilengkapi dengan 7,8 miliar parameter dan dilatih menggunakan 8 triliun token data. Saat ini, EXAONE mendukung dua bahasa, yaitu bahasa Korea dan bahasa Inggris seperti dikutip Gizmochina.
“Di antara jajaran model bahasa EXAONE 3.0 yang dibuat untuk berbagai keperluan, model penyesuaian instruksi 7.8B sedang di-open-source terlebih dahulu sehingga dapat digunakan untuk penelitian,” kata siaran pers LG.
LG menyatakan EXAONE 3.0 dengan 7,8 miliar parameter dapat digunakan untuk penelitian, baik di dalam maupun luar negeri, untuk melakukan penelitian yang lebih mendalam dan mendorong ekosistem AI ke tahap yang lebih maju. Menurut hasil pengujian internal, kemampuan bahasa Inggris EXAONE berada di tingkat teratas secara global, dengan skor rata-rata untuk kasus penggunaan nyata menempati posisi pertama, melampaui beberapa model seperti Llama 3.0.
EXAONE 3.0 juga unggul dalam kalkulasi matematika dan pengodean, dengan kemampuan penalaran yang kuat dan berada di peringkat pertama dalam skor rata-rata untuk kasus penggunaan aktual dan tolok ukur di Korea. Model itu mampu mengurangi waktu inferensi hingga 56%, penggunaan memori hingga 35%, dan biaya operasional hingga 72% dibandingkan dengan model sebelumnya.
Model terbaru ini dilaporkan telah dilatih menggunakan 60 juta data profesional terkait paten, kode, matematika, dan kimia, dengan rencana untuk memperluas data pelatihan hingga 100 juta kasus di berbagai bidang pada akhir tahun ini. LG AI Research juga fokus pada pengembangan teknologi optimasi untuk mengurangi konsumsi daya dan membuat model lebih efisien, mengklaim telah berhasil mengurangi ukuran model hingga 97% sambil meningkatkan kinerja dibandingkan dengan EXAONE 1.0.
Mirip Meta
Meta mengumumkan kemajuan terbarunya dalam teknologi artificiaI intelligence (AI) atau kecerdasan buatan. Kali ini Meta memperkenalkan model AI open-source Llama 3.1 yang mampu mengungguli GPT-4o dan Claude 3.5 Sonnet dalam beberapa benchmark. Model AI Llama 3.1 memiliki 405 miliar parameter dan dilatih menggunakan lebih dari 16.000 GPU Nvidia H100. Meskipun biaya pengembangannya tidak diungkapkan, diperkirakan Meta menghabiskan ratusan juta dolar untuk melatihnya.
Model AI terbaru itu dilisensikan untuk memungkinkan akses yang lebih luas bagi pengembang, terutama bagi perusahaan dengan ratusan juta pengguna. Meta membandingkan investasinya dalam AI open-source dengan proyek Open Compute sebelumnya, yang berhasil menghemat miliaran dolar.
Untuk mendukung pengembangan dan penggunaan Llama 3.1, Meta bekerja sama dengan perusahaan besar seperti Microsoft, Amazon, Google, Nvidia, dan Databricks. Keunggulan utama Llama 3.1 adalah efisiensi biaya operasionalnya, yang diklaim setengah lebih murah dibandingkan GPT-4o dari OpenAI.
Model AI itu dilatih dengan data sintetis, yang juga membantu meningkatkan versi yang lebih kecil. Llama 3.1 diuji untuk berbagai aplikasi, termasuk keamanan siber dan biokimia, dan mampu mengintegrasikan API mesin pencari untuk mendapatkan informasi dari internet dan menyelesaikan tugas kompleks.
Meta AI assistant berbasis Llama akan segera tersedia di WhatsApp dan situs web Meta AI di AS, dengan peluncuran di Instagram dan Facebook dalam beberapa minggu mendatang. Salah satu fitur inovatifnya adalah "Imagine Me", yang memungkinkan pengguna memasukkan kemiripan wajah mereka ke dalam gambar yang dihasilkan AI melalui pemindaian wajah.
CEO Meta, Mark Zuckerberg, memprediksi bahwa Meta AI akan menjadi asisten paling banyak digunakan di dunia pada akhir tahun ini, melampaui popularitas ChatGPT.
Baca Juga: Gandeng OpenAI, Bank Terbesar AS ini Kenalkan LLMs AI Suite
Source | : | Gizmochina |
Penulis | : | Adam Rizal |
Editor | : | Adam Rizal |
KOMENTAR