Find Us On Social Media :

Marak Implementasi AI di 2024, Cloudera Sarankan Fokus Pada Data

By Liana Threestayanti, Selasa, 13 Februari 2024 | 14:30 WIB

Pemanfaatan teknologi AI diperkirakan akan terus meningkat tahun ini. Bagaimana perusahaan dan organisasi sebaiknya mempersiapkan diri ? (Foto: Fajar Muharandy, Principal Solution Engineer, Cloudera)

Dari penjelasan tersebut dapat kita katakan, penerapan sumber proprietary atau LLM closed source yang dikembangkan dan di-host oleh perusahaan bisa menjawab masalah privasi data, halusinasi, dan pembatasan konteks. Namun persoalan yang kerap menjadi kendala bagi perusahaan untuk menerapkan itu, menurut Fajar, adalah biaya yang tinggi. 

“Untuk mengatasi tantangan ini, CML Cloudera menawarkan dukungan bagi open source AI untuk memberdayakan pelanggan menjadi tuan rumah solusi AI mereka sendiri, dalam lingkungan mereka sendiri, tanpa menghabiskan biaya besar untuk riset, infrastruktur, dan pengembangan,” jelasnya. 

Fajar juga memastikan bahwa interaksi dengan model tersebut akan dipelihara (maintain), sehingga menghilangkan masalah privasi. 

“Pelanggan kami juga bisa menambahkan konteks ke LLM yang mereka host dengan data perusahaan yang lebih spesifik, sehingga masalah hallucinations dan informasi di luar konteks, akan terpecahkan,” imbuhnya.

Dukungan Cloudera untuk Enterprise AI

Melihat perubahan pesat enterprise AI dan semakin pentingnya data serta konteks enterprise untuk keberhasilan model AI, Cloudera siap membantu perusahaan menyeimbangkan kinerja, keamanan dan biaya, secara presisi. 

“Fokus kami dalam bulan-bulan mendatang adalah mempercepat pipeline produk kami dan memperkenalkan kemampuan baru yang akan memungkinkan pelanggan kami memanfaatkan potensi enterprise AI dengan lebih baik,” jelas Fajar Muharandy.

Tahun lalu, Cloudera memperkenalkan beberapa Applied Machine Learning Prototypes (AMPs), yang disebut “blueprints.” Prototipe atau purwarupa ini di kembangkan sekaligus oleh Cloudera guna memungkinkan perusahaan membangun aplikasi artificial intelligence-nya sendiri dengan mudah di atas platform manajemen data hybrid, Cloudera Data Platform. Kehadiran AMPs juga diharapkan akan mendorong demokratisasi AI/ML ke lini bisnis perusahaan.  

“Salah satu AMP kami yaitu LLM Chatbot Augmented with Enterprise Data dapat digunakan sebagai cetak biru untuk AI generatif berdasarkan LLM untuk perusahaan. Salah satu pelanggan kami (yaitu sebuah bank)  di Asia Pasifik telah menggunakannya dalam skala besar di seluruh operasional global mereka,” jelas Fajar. 

Beberapa AI generatif AMPs lainnya dari Cloudera, seperti  LLM fine-tuning dengan QLoRA, Text Summarization, Intelligenet QA Chatbot dengan NiFi dan Pinecone tersedia di CML untuk penggunaan di public cloud dan private cloud. “Dan banyak lagi yang akan dirilis dalam beberapa bulan mendatang,” ia menambahkan.

Tren Optimalisasi LLM

Selain itu, dengan semakin banyaknya perusahaan yang menerapkan AI generatif dan pentingnya melakukan optimalisasi LLM, Cloudera memprediksi pendekatan fine tuning seperti Performance Efficient Fine Tuning (PEFT) akan semakin banyak digunakan oleh perusahaan. 

PEFT melatih neural network kecil pada domain data yang spesifik, serta general purpose LLM. PEFT memberikan sebagian besar manfaat kinerja dari pelatihan ulang LLM yang lebih besar, namun dengan biaya yang lebih kecil dan data pelatihan yang diperlukan. 

Penyempurnaan LLM memerlukan kemampuan machine learning yang lebih kuat, tapi dapat menghasilkan efisiensi yang lebih besar, kemampuan menjelaskan, dan hasil yang lebih akurat, terutama dalam situasi keterbatasan data pelatihan. 

“Kami berharap PEFT akan digunakan baik untuk proyek-proyek baru maupun untuk menggantikan beberapa arsitektur RAG (retrieval augmented generation) sebelumnya, dengan penyerapan terbesar pada perusahaan yang punya tim data science yang lebih besar dan lebih kapabel,” tutup Fajar Muharandy.

Baca juga: Cloudera Ungkap Cara Perusahaan Gunakan AI Generatif dan Cloud di 2024