Intel belum lama ini telah secara resmi mengumumkan prosesor Xeon Scalable dan memori Optane persistent memory baru di dunia, tepatnya Xeon Scalable Generasi ke-3 dan Optane persistent memory seri 200. Sebagai generasi terbaru, baik Intel Xeon Scalable Generasi ke-3 maupun Intel Optane persistent memory seri 200 menawarkan peningkatan dibandingkan generasi sebelumnya. Intel mengklaim peningkatan tersebut bisa makin membantu pengguna dalam mengembangkan dan memanfaatkan beban kerja AI (artificial intelligence) dan analytics, misalnya di data center. Peningkatan yang paling dikedepankan Intel adalah dukungan bfloat16 (Brain Floating Point Format) secara peranti keras pada Xeon Scalable Generasi ke-3 dan penambahan bandwidth pada Optane persistent memory seri 200.
Adapun fokus Intel pada AI dan analytics tentu sejalan dengan keyakinan bahwa makin jamaknya penggunaan AI dan analytics ke depannya. IDC misalnya memperkirakan bahwa pengeluaran untuk sistem AI dan kognitif di dunia akan mencapai US$77,6 miliar pada tahun 2022. Pengeluaran untuk sistem AI dan kognitif itu diprediksi bertumbuh dengan CAGR (compound annual growth rate) sebesar 37,3% dari tahun 2017 sampai tahun 2022. Begitu pula dengan solusi big data dan business analytics. IDC memperkirakan pendapatan dari solusi big data and business analytics secara global akan mencapai US$274,3 miliar pada tahun 2022. Pendapatan dari solusi big data dan business analytics tersebut diprediksi bertumbuh dengan CAGR sebesar 13,2% dari tahun 2018 sampai tahun 2022.
"Kami sunguh benar-benar percaya bahwa AI dan analytics adalah beban kerja yang mendefinisikan dekade berikutnya dan akan benar-benar menjadi jamak digunakan pada setiap aplikasi dan model penggunaan, dan ini bukanlah suatu pertanyaan jika, melainkan ini adalah kapan dan di tempat mana mereka diintegrasikan paling dekat dan paling cepat," ujar Lisa Spelman (Corporate Vice President and General Manager, Xeon and Memory Group, Intel). "Kami fokus dan terus-menerus memperluas portofolio tak tertandingi dari aneka produk dan peranti lunak dan solusi dan perangkat keras silikon yang menjadi dasar ini, dan kemudian ekosistem pendukung yang dipasangkan, dan di atas itu, dalam rangka menangani seluruh beban kerja dan alur kerja dan pergerakan data dari edge, melalui jaringan, ke cloud, dan kembali lagi, jadi kami memperhatikan semua bottleneck, area apa saja di dalam alur kerja tersebut yang membutuhkan penanganan," sebut Lisa Spelman lebih lanjut.
bfloat16 atau BF16 adalah salah satu format untuk merepresentasikan angka floating point pada komputer biner yang belakangan mendapatkan perhatian banyak pihak dan mulai menjadi salah satu pilihan untuk AI, seperti halnya DL (deep learning). bfloat16 dikembangkan oleh Google dan menyerupai IEEE 754 single-precision floating-point format yang populer disebut FP32, hanya saja jumlah bitnya dikurangi dari 32 menjadi 16. Namun berbeda dengan IEEE 754 half-precision floating-point format yang juga 16 bit, bfloat16 mempertahankan jumlah bit untuk eksponen sebanyak 8 dan bukannya berkurang menjadi 5.
Dengan kata lain bfloat16 memiliki 8 bit untuk eksponen seperti FP32, tetapi hanya 7 bit untuk pecahan atau mantissa dan bukannya 23 bit seperti FP32 (1 bit lagi adalah untuk menandakan positif atau negatif). Hal tersebut membuat jangkauan atau dynamic range dari bfloat16 sama dengan FP32, tetapi dengan keakuratan yang lebih rendah. Ibarat notasi ilmiah, seperti antara 3,000001 x 10n dengan 3,0000005400780000000052 x 10n; dalam contoh ini, yang pertama dengan 7 digit seperti bfloat16 dan yang kedua dengan 23 digit seperti FP32. Adapun n-nya sama-sama 8 digit. Meski tidak seakurat FP32, bfloat16 jauh lebih cepat dikalkulasi oleh komputer berhubung hanya 16 bit.
KOMENTAR