Organisasi di seluruh dunia tengah gencar mengadopsi aplikasi berbasis AI dan membangun pusat data yang siap mendukung kecerdasan buatan demi mendorong otomatisasi dan keunggulan operasional. Untuk mewujudkan hal ini, dibutuhkan performa sangat tinggi pada lingkungan inferensi AI dan large language model (LLM), serta solusi keamanan siber yang tangguh.
Menjawab kebutuhan tersebut, A10 Networks akan menampilkan kapabilitas terbaru berupa AI firewall dan kemampuan performa prediktif dalam ajang Interop Tokyo bertema “AI Steps into Reality”, yang akan digelar pada 11–13 Juni 2025.
Menghadang Ancaman Siber di Tingkat AI dan LLM
A10 memperkenalkan fitur AI firewall terbaru yang dapat diimplementasikan di depan API atau URL yang mengakses LLM, baik yang dikembangkan sendiri maupun berbasis solusi komersial seperti OpenAI atau Anthropic. Dibangun di atas arsitektur yang dioptimalkan untuk edge dan didukung perangkat keras berbasis GPU, solusi ini mampu melindungi LLM dengan performa tinggi dan bisa diintegrasikan ke berbagai infrastruktur sebagai fitur keamanan tambahan.
Teknologi ini memungkinkan organisasi untuk mencegah, mendeteksi, serta mengatasi berbagai ancaman AI dengan cara menguji model inferensi terhadap kerentanan yang telah diketahui, serta menghilangkannya menggunakan teknik perlindungan LLM milik A10.
AI firewall ini mampu mengidentifikasi ancaman seperti prompt injection dan kebocoran informasi sensitif, dengan cara menganalisis lalu lintas permintaan dan respons pada level prompt, serta menerapkan kebijakan keamanan yang dibutuhkan.
Menyajikan Pengalaman Real-Time untuk Lingkungan AI dan LLM
A10 terus memperkuat performa dan ketahanan aplikasi berbasis AI dan LLM. Ini dicapai melalui offloading proses berat seperti dekripsi TLS/SSL, caching, pengoptimalan rute trafik, serta penyediaan insight yang berguna untuk menjaga ketersediaan dan performa jaringan.
Kemampuan baru yang diperkenalkan mampu mendeteksi gangguan performa jaringan sejak dini, seperti sistem peringatan dini. Hal ini memungkinkan pelanggan mengantisipasi potensi kemacetan atau kekurangan kapasitas sebelum menjadi masalah serius. Fitur prediksi performa ini dijalankan melalui perangkat A10 berbasis GPU, memungkinkan pemrosesan data dalam jumlah besar secara cepat dan memberikan insight atas anomali yang mungkin terjadi.
Kombinasi kemampuan keamanan dan infrastruktur AI ini memberikan kemudahan manajemen, kecerdasan yang lebih luas dalam mendeteksi ancaman secara akurat, serta memastikan pengalaman terbaik bagi pengguna akhir.
“Perusahaan saat ini tengah gencar melatih dan menerapkan model inferensi AI dan LLM, baik di on-premise maupun di cloud. Tiga tantangan utama yang harus diatasi adalah latensi, keamanan, dan kompleksitas operasional. Dengan pengalaman lebih dari 20 tahun dalam mengamankan serta mengelola aplikasi, kami memperluas portofolio untuk menjawab tantangan tersebut—dengan menghadirkan ketahanan, performa tinggi, dan keamanan bagi infrastruktur AI dan LLM,” ujar Dhrupad Trivedi, Presiden dan CEO A10 Networks.
Penulis | : | Dayu Akbar |
Editor | : | Dayu Akbar |
KOMENTAR