Find Us On Social Media :

Marak Implementasi AI di 2024, Cloudera Sarankan Fokus Pada Data

By Liana Threestayanti, Selasa, 13 Februari 2024 | 14:30 WIB

Pemanfaatan teknologi AI diperkirakan akan terus meningkat tahun ini. Bagaimana perusahaan dan organisasi sebaiknya mempersiapkan diri ? (Foto: Fajar Muharandy, Principal Solution Engineer, Cloudera)

Pemanfaatan teknologi artificial intelligence (AI) diperkirakan akan terus meningkat dan meluas tahun ini. Bagaimana perusahaan dan organisasi sebaiknya mempersiapkan diri menyambut tren ini?  

Meraih momentumnya di tahun 2023, artificial intelligence diprediksi Statista akan terintegrasi secara luas tahun ini. AI akan hadir di mana-mana dalam kehidupan sehari-hari, di rumah, lingkungan bisnis, dan pasar global. Statista mencatat, saat ini, 54% konsumen global dengan mudah memasukkan AI ke dalam rutinitas mereka, dan diperkirakan akan terjadi peningkatan yang signifikan. 

Sementara itu, berdasarkan survei yang dilakukan World Economic Forum terhadap para Chief Digital Officer dari berbagai sektor industri di dunia, di 2024 ini, perusahaan akan fokus pada upaya pemangkasan biaya dan perampingan operasi. Dan untuk mencapai tujuan tersebut, terkait AI, perusahaan pun beranjak dari tahap uji coba AI ke fase implementasi secara luas.

AI juga disebut TechTarget akan menjadi katalisator kunci bagi transformasi digital di 2024 sehingga pemimpin teknologi akan fokus untuk memasukkan AI dalam inisiatif transformasi digitalnya. 

Tren yang sama juga dijumpai di Indonesia. Hal itu, menurut Fajar Muharandy, Principal Solution Engineer, Cloudera, terlihat antara lain dari peningkatan adopsi solusi Cloudera Machine Learning (CML).Perusahaan mengadopsi CML dengan alasan ingin memiliki keunggulan kompetitif dari para pesaingnya. 

Sebagai informasi, CML pada Cloudera Data Platform memungkinkan para data scientist berkolaborasi di atas satu platfom tunggal yang inklusif untuk mendukung use case AI.

“Banyak dari pelanggan kami tertarik untuk mengimplementasikan AI dalam perusahaan mereka dan bagaimana memanfaatkan GenAI dan tools seperti Large Language Models (LLMs) di perusahaan mereka untuk mendorong outcome bisnis, dengan aman, dan dengan data yang mereka bisa percaya,” jelas Fajar melalui jawaban tertulis.

Secara umum, Fajar menilai, perusahaan-perusahaan yang lebih maju secara digital adalah early adopter teknologi disruptif, seperti AI. Ia memberikan contoh Bank OCBC Indonesia yang saat ini sedang berkolaborasi dengan Cloudera untuk menerapkan teknologi seperti modern data architecture dan GenAI generatif untuk menambah value dalam pelayanan nasabah.

Tantangan Implentasi AI

Dalam prediksinya untuk 2024, Forrester mengungkapkan bahwa kebanyakan perusahaan di Asia Pasifik melihat AI generatif sebagai sebagai pendorong produktivitas. Namun menurut Forrester, hanya 30% perusahaan dengan praktik TI yang lebih matang di kawasan ini yang memiliki posisi strategis untuk meraih manfaat AI, seperti peningkatan produktivitas, ketahanan operasional yang lebih baik, pengalaman pelanggan yang unggul, dan inovasi model bisnis. 

Firma riset ini pun mengemukakan bahwa hambatan yang dihadapi perusahaan di Asia Pasifik utamanya budaya menghindari risiko (risk-averse culture) dan kemampuan manajemen data yang tidak memadai.  

Sementara itu, khususnya di Indonesia, Fajar Muharandy juga melihat faktor dukungan regulasi dan ketersediaan teknologi sebagai kendala yang dihadapi berbagai perusahaan di tanah air ketika akan menerapkan AI dengan cepat.

“Untuk perusahaan di Indonesia, minimnya regulasi seputar teknologi baru ini telah memunculkan tantangan dalam implementasi teknologi, seperti cloud. Kepatuhan regulasi, tata kelola, dan kontrol, akan membentuk landasan pemanfaatan teknologi dalam perusahaan. Tanpa panduan yang jelas mengenai apa yang diperbolehkan akan membuat banyak perusahaan memilih untuk mengambil langkah pendekatan yang lebih konservatif,” tegasnya.

Di sisi lain, teknologi tersebut mungkin tidak segera tersedia di Indonesia. Dalam konteks AI, tools seperti LLM biasanya dilatih dengan data dalam Bahasa Inggris, sebelum diadopsi dan disempurnakan dengan bahasa lain untuk melayani kebutuhan pasar lokal. “Ketergantungan terhadap sesuatu yang konteksnya di luar Indonesia akan menambahkan tantangan bagi perusahaan lokal yang ingin menerapkan AI generatif dalam perusahaan,” ujar Fajar.

Langkah-langkah Mengadopsi AI

Lantas, apa yang harus disiapkan perusahaan untuk mengadopsi AI, termasuk AI generatif, secara efektif dan cepat? Di era kecerdasan, data akan menjadi elemen yang krusial. “Membangun landasan kuat untuk AI membutuhkan investasi dalam hal teknologi, manusia, dan proses, karena solusi AI – baik generatif ataupun tradisional – hanya akan berkualitas jika datanya dilatih dalam konteks perusahaan yang tepat,” jelas Fajar. 

Menurutnya, perusahaan membutuhkan integrasi yang mulus dengan sistem TI yang ada dan kontrol terhadap seluruh siklus hidup data. Dengan demikian, akses dan pengelolaan data di seluruh siklus hidup data bisa dilakukan secara efisien dan efektif.

Ia juga menekankan pentingnya bagi perusahaan untuk memiliki akses terhadap kemampuan hybrid cloud, multi-cloud data, yang mendukung AI yang terpercaya, aman, dan bertanggung jawab dalam perusahaan. 

Oleh karena itu langkah yang dapat dilakukan perusahaan untuk mengatasi tantangan dalam mengakses dan mengelola data, menurut Fajar, adalah melakukan modernisasi terhadap arsitektur data. “Dengan fondasi data yang solid, perusahaan akan mudah mendeploy AI/ML dalam skala besar di seluruh perusahaan, untuk meraih peluang inovasi dan membuka potensi bisnis baru,” tandasnya.  

Open Source vs Close Source

Masih terkait penggunaan data untuk mendukung keberhasilan adopsi AI, saat ini organisasi dan perusahaan dihadapkan pada pilihan menggunakan AI open source atau close source. Hal ini perlu menjadi pertimbangan mengingat penerapan AI masih kerap diliputi pertanyaan seputar keamanan dan privasi data. 

“Privasi data, halusinasi, keterbatasan kontekstual, dan biaya, tetap menjadi beberapa tantangan terbesar bagi perusahaan yang ingin menerapkan enterprise AI dalam skala besar,” jelas Fajar. Ia melihat ada layanan AI yang tersedia bagi publik dan mungkin tampak menarik karena biayanya yang lebih rendah. 

Namun menurutnya aplikasi pihak ketiga ini berisiko membuat perusahaan terpapar pada masalah privasi dan keamanan yang tak perlu. Pasalnya, perusahaan mungkin menyimpan dan memproses informasi bisnis yang penting dan berpotensi bocor saat terjadi pelanggaran data atau akses tidak sah.

“Kenyataannya adalah akses ke basis pengetahuan enterprise atau sumber proprietary data adalah sangat penting bagi keberhasilan model LLM atau AI apa pun,” kata Fajar. Membangun pengalaman interaktif ini pada proprietary data dalam konteks yang tepat tanpa membaginya dengan layanan eksternal dikatakan Fajar akan sangat mengurangi potensi halusinasi atau jawaban yang faktual tapi di luar konteks.

Dari penjelasan tersebut dapat kita katakan, penerapan sumber proprietary atau LLM closed source yang dikembangkan dan di-host oleh perusahaan bisa menjawab masalah privasi data, halusinasi, dan pembatasan konteks. Namun persoalan yang kerap menjadi kendala bagi perusahaan untuk menerapkan itu, menurut Fajar, adalah biaya yang tinggi. 

“Untuk mengatasi tantangan ini, CML Cloudera menawarkan dukungan bagi open source AI untuk memberdayakan pelanggan menjadi tuan rumah solusi AI mereka sendiri, dalam lingkungan mereka sendiri, tanpa menghabiskan biaya besar untuk riset, infrastruktur, dan pengembangan,” jelasnya. 

Fajar juga memastikan bahwa interaksi dengan model tersebut akan dipelihara (maintain), sehingga menghilangkan masalah privasi. 

“Pelanggan kami juga bisa menambahkan konteks ke LLM yang mereka host dengan data perusahaan yang lebih spesifik, sehingga masalah hallucinations dan informasi di luar konteks, akan terpecahkan,” imbuhnya.

Dukungan Cloudera untuk Enterprise AI

Melihat perubahan pesat enterprise AI dan semakin pentingnya data serta konteks enterprise untuk keberhasilan model AI, Cloudera siap membantu perusahaan menyeimbangkan kinerja, keamanan dan biaya, secara presisi. 

“Fokus kami dalam bulan-bulan mendatang adalah mempercepat pipeline produk kami dan memperkenalkan kemampuan baru yang akan memungkinkan pelanggan kami memanfaatkan potensi enterprise AI dengan lebih baik,” jelas Fajar Muharandy.

Tahun lalu, Cloudera memperkenalkan beberapa Applied Machine Learning Prototypes (AMPs), yang disebut “blueprints.” Prototipe atau purwarupa ini di kembangkan sekaligus oleh Cloudera guna memungkinkan perusahaan membangun aplikasi artificial intelligence-nya sendiri dengan mudah di atas platform manajemen data hybrid, Cloudera Data Platform. Kehadiran AMPs juga diharapkan akan mendorong demokratisasi AI/ML ke lini bisnis perusahaan.  

“Salah satu AMP kami yaitu LLM Chatbot Augmented with Enterprise Data dapat digunakan sebagai cetak biru untuk AI generatif berdasarkan LLM untuk perusahaan. Salah satu pelanggan kami (yaitu sebuah bank)  di Asia Pasifik telah menggunakannya dalam skala besar di seluruh operasional global mereka,” jelas Fajar. 

Beberapa AI generatif AMPs lainnya dari Cloudera, seperti  LLM fine-tuning dengan QLoRA, Text Summarization, Intelligenet QA Chatbot dengan NiFi dan Pinecone tersedia di CML untuk penggunaan di public cloud dan private cloud. “Dan banyak lagi yang akan dirilis dalam beberapa bulan mendatang,” ia menambahkan.

Tren Optimalisasi LLM

Selain itu, dengan semakin banyaknya perusahaan yang menerapkan AI generatif dan pentingnya melakukan optimalisasi LLM, Cloudera memprediksi pendekatan fine tuning seperti Performance Efficient Fine Tuning (PEFT) akan semakin banyak digunakan oleh perusahaan. 

PEFT melatih neural network kecil pada domain data yang spesifik, serta general purpose LLM. PEFT memberikan sebagian besar manfaat kinerja dari pelatihan ulang LLM yang lebih besar, namun dengan biaya yang lebih kecil dan data pelatihan yang diperlukan. 

Penyempurnaan LLM memerlukan kemampuan machine learning yang lebih kuat, tapi dapat menghasilkan efisiensi yang lebih besar, kemampuan menjelaskan, dan hasil yang lebih akurat, terutama dalam situasi keterbatasan data pelatihan. 

“Kami berharap PEFT akan digunakan baik untuk proyek-proyek baru maupun untuk menggantikan beberapa arsitektur RAG (retrieval augmented generation) sebelumnya, dengan penyerapan terbesar pada perusahaan yang punya tim data science yang lebih besar dan lebih kapabel,” tutup Fajar Muharandy.

Baca juga: Cloudera Ungkap Cara Perusahaan Gunakan AI Generatif dan Cloud di 2024