Penulis: Robert Eve (Senior Data Management Strategist, Thought Leadership & Digital Content Executive, TIBCO Software)
Data sangat penting bagi keberhasilan bisnis, tetapi kualitasnya tetap sulit dipahami karena definisi, sintaksis, struktur, sumber, serta penggunaan yang berkembang berkonspirasi untuk membatasi keampuhannya. Banyaknya data yang tersedia untuk organisasi serta kompleksitasnya seringkali terasa berlebihan. Namun, kemajuan manajemen data generasi mendatang, yang digunakan bersama dengan pendekatan yang lebih pragmatis, dapat membantu meringankan kekhawatiran ini sambil meningkatkan kualitas data.
Namun, untuk memastikan kualitas data, umumnya tidak dapat dilakukan menggunakan aplikasi mandiri. Sebaliknya, hal itu memerlukan kombinasi beberapa aplikasi yang mencakup manajemen metadata, manajemen data master, manajemen data referensi, katalog data, tata kelola data, serta integrasi data.
Secara tradisional, sistem-sistem tersebut independen dan membutuhkan metadata serta koordinasi data pada berbagai perangkat yang berbeda. Selain itu, penawaran manajemen data generasi pertama dirancang dengan mempertimbangkan pengguna teknis yang tidak memiliki keahlian bisnis yang diperlukan untuk memastikan keberhasilan usaha untuk memastikan kualitas data.
Oleh karena itu, perusahaan memerlukan solusi manajemen data generasi mendatang yang mampu mengintegrasikan komponen yang sedianya terpisah-pisah dalam suatu lingkungan. Dengan tersedia secara terintigrasi pada suatu lingkungan, para pakar bisnis dan teknologi dapat berkolaborasi di seluruh siklus hidup kualitas data pelanggan.
Virtualisasi Data untuk Berhenti Membuat Begitu Banyak Salinan Data
Menurut IDC (International Data Corporation), data perusahaan berlipat ganda setiap tiga tahun. Volume ini menambah kompleksitas dalam memastikan kualitas data; 85% dari data ini dapat dianggap sebagai salinan dari data asli.
Ini dapat dikaitkan dengan cara kerja integrasi berbasis data warehouse tradisional. Data asli dari sistem transaksional disalin ke tampilan, dan kemudian disalin lagi ke tempat penyimpanan. Data mart berdasarkan tempat penyimpanan menghasilkan banyak salinan. Menambahkan data reservoir ke dalam gabungan, membuat proliferasi salinan makin buruk lagi.
Dengan begitu banyak salinan yang tersebar di lokasi-lokasi yang berbeda, mempertahankan akurasi serta konsistensi data menjadi tantangan besar. Alhasil kualitas data dikorbankan.
Jawaban langsungnya adalah agar perusahaan berhenti membuat begitu banyak salinan data. Salah satu caranya adalah menggunakan virtualisasi data untuk mengakses data hulu langsung dari sumber aslinya. Dengan menggunakan virtualisasi data seperti itu, suatu organisasi dapat menarik banyak data mart untuk meningkatkan kualitas, sambil menekan biaya. Hal ini juga akan menghasilkan semua pengguna hulu berbagi definisi data umum serta mendapatkan pandangan yang konsisten dalam hal kualitas dan sumber data.
AI untuk Mengidentifikasi dan Menyelesaikan Masalah Kualitas Secara Otomatis
Selain mengadopsi solusi manajemen data terintegrasi serta membuat salinan data penampil, perusahaan juga harus mempertimbangkan untuk menggunakan AI (artificial Intelligence) dalam mengidentifikasi dan menyelesaikan masalah kualitas secara otomatis.
IDC telah mengidentifikasi bagaimana lima model AI yang tersedia saat ini, serta kemampuan ML (machine learning) dari vendor manajemen data, dapat meningkatkan kualitas data. Ini termasuk diolah oleh manusia, diolah manusia dan didukung mesin, diolah oleh mesin dan didukung oleh manusia, diolah mesin dan diperintah manusia, serta diolah mesin dan diperintah mesin.
KOMENTAR