Find Us On Social Media :

Kampus China Kembangkan Model Bahasa AI Skala Besar Generasi Terbaru

By Adam Rizal, Sabtu, 20 Januari 2024 | 09:00 WIB

LLM

Laboratorium Artificial Intelligence (AI) atau Kecerdasan Buatan Shanghai, SenseTime, Universitas Hong Kong China, dan Universitas Fudan mengembangkan sebuah model bahasa skala besar generasi terbaru yang mampu menangani sekitar 300.000 karakter bahasa Mandarin sekaligus telah diluncurkan di Shanghai.

 Masalah panjang konteks pada model skala besar dalam kecerdasan buatan diatasi dengan rilisnya model baru, InternLM2, yang dikembangkan oleh  Dalam suatu eksperimen, peneliti memberikan transkrip pertemuan publik selama tiga jam kepada model tersebut, meminta model untuk mengekstrak informasi penting. 

Meskipun terdapat kesalahan ketik yang belum dikoreksi, hasil pengujian menunjukkan bahwa InternLM2 mampu mengekstrak informasi secara akurat dan merangkum poin-poin utama pembicara.  Pengembang bertujuan untuk meningkatkan kemampuan pemodelan bahasa dengan memperbaiki kualitas korpus dan kepadatan informasi. Laboratorium Kecerdasan Buatan Shanghai menyatakan bahwa mereka terus melisensikan InternLM2 secara gratis untuk penggunaan komersial.

Keunggulan LLM Alibaba Cloud

Alibaba Cloud, tulang punggung teknologi digital dan kecerdasan dari Alibaba Group, mengumumkan ketersediaan dua Large Language Models (LLM) open source, Qwen-72B dan Qwen-1.8B, versi 72-miliar parameter dan 1,8-miliar parameter dari model fondasi milik Alibaba, Tongyi Qianwen, di komunitas model AI mereka, ModelScope, dan platform AI kolaboratif, Hugging Face.

Selain itu, Alibaba Cloud juga menyediakan lebih banyak LLM multimodal termasuk Qwen-Audio dan Qwen-Audio-Chat, versi model pemahaman audio yang telah dilatih sebelumnya dan penyempurnaan percakapan, untuk tujuan penelitian dan komersial. Hingga hari ini, pelopor cloud ini telah berkontribusi untuk menyediakan berbagai ukuran LLM dengan parameter mulai dari 1,8B, 7B, 14B hingga 72B, serta LLM multimodal dengan fitur pemahaman audio dan visual.

"Membangun ekosistem open-source sangat penting untuk mendorong pengembangan LLM dan aplikasi AI. Kami bercita-cita menjadi cloud paling terbuka dan membuat kemampuan AI generatif dapat diakses oleh semua orang," kata Jingren Zhou, CTO Alibaba Cloud. 

“Untuk mencapai tujuan itu, kami akan terus memberikan teknologi canggih kami serta memfasilitasi pengembangan komunitas open-source bersama dengan mitra kami," ucapnya.

Dengan pelatihan sebelumnya yang dilakukan pada lebih dari 3 triliun token, model 72-miliar parameter ini mengungguli model-model open-source utama lainnya dalam sepuluh tolok ukur, antara lain termasuk tolok ukur untuk Massive Multi-task Language Understanding (MMLU) yang mengukur akurasi model multitask, HumanEval yang menguji kemampuan generasi kode, dan GSM8K, tolok ukur untuk masalah aritmetika.

Model ini juga menunjukkan kemahirannya dalam menangani berbagai perintah rumit, termasuk bermain peran dan transfer gaya bahasa, yang merujuk pada kemampuan LLM untuk mengambil peran atau persona tertentu dan menghasilkan respons yang lebih relevan secara kontekstual sesuai dengan persona tersebut. Fitur seperti ini dapat berguna dalam aplikasi AI seperti chatbot yang dipersonalisasi. 

Baca Juga: Samsung Akan Luncurkan Galaxy AI Bahasa Indonesia Kuartal Kedua 2024

 Baca Juga: Antisipasi Ancaman, Australia Bakal Bentuk Otoritas Jasa Pengawas AI