Dalam mengadopsi AI, Red Hat menawarkan pendekatan open hybrid cloud yang memungkinkan perusahaan memperoleh skalabilitas dan fleksibilitas dalam menjalankan beban kerja dan aplikasi AI. Menurut Vony, pendekatan ini memungkinkan operasional yang konsisten di seluruh tim dan fleksibilitas dalam menjalankan workload AI di mana saja, memastikan bisnis tetap lincah dan mampu beradaptasi.
Untuk itu, Red Hat menyediakan platform OpenShift yang mendukung penerapan aplikasi di berbagai lingkungan, seperti on-premise, cloud, dan edge, tanpa perlu mengubah struktur, arsitektur, atau kode aplikasi.
Red Hat juga bekerja sama dengan penyedia layanan cloud besar seperti AWS (melalui ROSA – Red Hat OpenShift on AWS), Microsoft (melalui ARO – Azure Red Hat Openshift), dan Google Cloud (melalui OpenShift Dedicated on Google Cloud Platform) sehingga memudahkan pelanggan untuk menjalankan kontainer di cloud yang dikelola oleh penyedia cloud tersebut.
Integrasi model AI ke dalam aplikasi sering kali menjadi tantangan karena membutuhkan proses yang kompleks. Model AI yang sudah terbentuk perlu diluncurkan dan dilatih secara berkala agar tetap relevan dan akurat. Dalam konteks ini, OpenShift AI menawarkan solusi melalui pendekatan ML Ops yang menyederhanakan proses integrasi tersebut.
"Jadi bagaimana model AI itu perlu, satu, di-launch ke aplikasi. Kedua, dilatih terus menerus karena kalau tidak dilatih terus menerus, datanya bisa jadi sudah kurang relevan atau akurasinya berkurang," jelas Vony.
Menurutnya, penggunaan AI/ML Ops di atas platform OpenShift memungkinkan tim DevOps untuk lebih mudah meng-infuse model AI ke dalam aplikasi, sekaligus memberikan fleksibilitas untuk melakukan training ulang jika diperlukan.
Red Hat juga menawarkan fleksibilitas kepada pelanggannya dalam menggunakan alat-alat AI/ML Ops. Pelanggan tidak harus menggunakan OpenShift AI, tetapi dapat mengintegrasikan berbagai platform data yang sudah ada seperti Cloudera, Confluent, Starburst, atau H2O, asalkan platform tersebut sudah containerized.
"Kalau sudah punya platform data yang existing, mau itu Cloudera, Confluent, Starburst, atau H2O, selama itu containerized, maka bisa ditaruh di atas OpenShift," ujar Vony. Hal ini memudahkan tim data di perusahaan dalam mengoperasionalisasi siklus AI mereka tanpa harus merombak infrastruktur yang sudah ada.
Fleksibilitas Model AI
Red Hat juga menawarkan fleksibilitas dalam penggunaan model AI sehingga pelanggan dapat memilih model yang paling sesuai dengan kebutuhan mereka. “Kita melihat saat ini, solusi-solusi AI yang tersedia di luar, misalnya LLM, itu masih available di public cloud. Nah bagaimana caranya kalau customer ingin punya “private AI”, mereka ingin membangun dan melatih AI di data center miliknya, dan mereka tidak mau mulai dari nol,” ujar Vony.
Menjawab kebutuhan ini, bersama IBM, Red Hat menyediakan LLM bernama Granite, yang di-open source-kan oleh IBM. "Pelanggan Red Hat free untuk pakai, free untuk mencoba, free untuk download," jelas Vony seraya menambahkan bahwa pelanggan tidak perlu melatih model dari awal di data center mereka.
Selain itu, Red Hat juga memberikan solusi bagi para data scientist untuk membangun LLM dengan hanya menggunakan desktop. Dengan Red Hat Podman Desktop (melalui extension Podman AI Lab), data scientist dapat mengunduh LLM yang telah tersedia, seperti Granite, serta model setengah jadi yang bisa langsung diunduh dan dilatih ulang di desktop mereka. Hal ini, menurut Vony, memberi kemudahan bagi pelanggan untuk melakukan pelatihan dan eksperimen dengan model tanpa memerlukan infrastruktur besar atau kompleks.
Penulis | : | Liana Threestayanti |
Editor | : | Liana Threestayanti |
KOMENTAR