Pada RNN ini, sistem belajar dengan menggunakan “otak” dalam jumlah yang banyak dan disusun berurutan. Cara belajarnya, otak pertama menganalisis sebagian dari kalimat dan menyerahkan sebagian kalimat lain ke otak sebelahnya. Teknik ini memungkinkan sistem untuk memproses keseluruhan kalimat, namun di sisi lain kurang cakap dalam menangkap kalimat yang panjang. Otak pertama bisa “lupa” konteks kalimat ketika memproses kalimat atau paragraf yang panjang.
Sedangkan GPT menggunakan teknik baru yang disebut Transformer (yang menjadi alasan mengapa ada kata Transfomer di GPT). Teknik Transformer ini juga menggunakan banyak otak untuk memahami sebuah kalimat. Bedanya, setiap otak ini akan memahami setiap kalimat sendiri-sendiri, untuk kemudian diinterpretasikan oleh otak besar atau Transformer. Teknik ini membuat GPT memiliki kemampuan lebih baik dalam memahami kalimat atau paragraf yang panjang.
Konsekuensi dari teknik Transformer ini adalah kebutuhan komputasi yang tinggi (karena setiap otak harus memproses semua kalimat). Dengan kata lain, biaya yang dibutuhkan oleh teknik Transformer juga semakin tinggi. Namun mengingat keuntungan yang diperoleh teknik Transformer dalam menganalisis data, semua biaya tersebut menjadi sepadan.
Hubungan GPT dan ChatGPT
Setelah sistem GPT terbukti berhasil, implementasinya pun bisa ke berbagai sektor. Yang paling terkenal tentu saja ChatGPT yang dikembangkan sendiri oleh OpenAI si pemilik teknologi GPT.
Namun OpenAI sebenarnya juga membuka API GPT untuk digunakan pihak ketiga dengan biaya tertentu. Contoh layanan yang memanfaatkan GPT adalah Replika.ai (sebuah layanan personal assistant) serta Copy.ai (yang menawarkan layanan penulisan artikel).
Implementasi GPT pun bukan sekadar text-to-text seperti contoh di atas. GPT juga bisa digunakan untuk text-to-image, seperti yang dicontohkan OpenAI melalui solusi DALL-E.
Intinya, produk yang membutuhkan pemahaman akan sebuah kalimat bisa memanfaatkan GPT ini. Apakah itu terjemahan, menyimpulkan artikel, menjawab pertanyaan, sampai menganalisis sentimen.
GPT di Masa Depan
Sejarah GPT sendiri berawal di tahun 2018, ketika OpenAI merilis GPT generasi pertama (GPT-1). Setelah itu, GPT terus dikembangkan menjadi GPT-2 (tahun 2019) dan GPT-3 (tahun 2020). ChatGPT sendiri dibuat berbasis GPT-3.5.
Saat ini, OpenAI sedang mengembangkan generasi baru GPT yang disebut GPT-4. Meski banyak yang menyebut GPT-4 akan rilis tahun ini, Sam Altman (CEO OpenAI) masih belum mengkonfirmasi waktunya. “Kami akan merilis GPT-4 hanya ketika kami dapat melakukannya secara aman dan bertanggung jawab,” ungkap Altman.
Altman juga membantah rumor yang menyebut GPT-4 akan ratusan kali lebih pintar dibanding GPT-3. Satu yang pasti, GPT-4 akan belajar lebih banyak data. GPT-4 mungkin juga akan lebih multimodal, alias bisa berinteraksi dengan lebih dari satu model (jadi bukan cuma menerima teks). Contohnya, GPT-4 bisa menerima perintah dalam bentuk suara atau video.
Jika itu terwujud, dampak teknologi GPT akan semakin terasa di kehidupan sehari-hari.
Baca Juga: Lagi Viral, Apa Itu ChatGPT dan Bagaimana Cara Menggunakannya?
Penulis | : | Wisnu Nugroho |
Editor | : | Wisnu Nugroho |
KOMENTAR