Sillicon Valley kemarin sempat heboh soal GPT-3. Apa sih GPT-3 itu? GPT-3 adalah salah satu contoh machine learning biasa. Yang bikin gak biasa, machine learning ini punya kemampuan buat meneruskan bahasa meski dengan contoh yang sedikit.
Salah satu twit yang bikin heboh mengenai GPT-3 ini: “Gak abis pikir, aku bisa membangun layout generator pakai GPT-3. Hanya tinggal deskripsiin layout yang mau dibuat, GPT-3 bisa bikinin kode JSX-nya!”
Sumber: Twitter
Contoh Sederhana
Masih belum paham? Hmm… oke, misalnya kayak gini: dalam GPT-3 versi beta (software buat uji coba), kita bisa melatih GPT-3 dengan memasukkan sejumlah data seperti berikut:
Pada umumnya, machine learning gak bisa menjawab pertanyaan di luar data yang diberikan seperti pertanyaan ini. Nah, gimana kalau GPT-3?
GPT-3 bisa menjawabnya lho! Kira-kira, kenapa sih GPT-3 bisa menjawab pertanyaan seperti ini?
Gambaran Cara Kerja
GPT-3 dan machine learning lain tuh ibaratnya kayak anak TK sama anak balita. Hal ini dikarenakan dalam melatih machine learning lain itu seperti melatih anak balita yang belum punya pengetahuan apa pun. Sementara itu, GPT-3 sudah punya “common knowledge” seperti anak TK yang sebelumnya sudah dilatih untuk bisa membedakan angka, huruf, maupun simbol.
Gambarannya kayak begini nih… anggaplah kita sedang melatih machine learning lain dan GPT-3 bahwa ketika 1 ditambah 1 akan menghasilkan 2.
Maka, ketika si balita (machine learning lain) ditanya soal hal-hal yang belum dipelajarinya, dia gak bakal bisa jawab. Beda sama si anak TK yang sudah punya “dasar” pengetahuan. Jadi, kalo dia sudah dilatih dengan soal 1+1=2, maka nantinya dia akan bisa menjawab kalau 1 dengan 2 jika dijumlahkan akan menghasilkan 3 meski belum diajari 1+2=3.
Dampak dari kemampuan yang dimilikinya ini, GPT-3 punya kemungkinan bisa menulis lagu, bikin artikel, buat esai, dan bahkan bikin coding! Yah, walaupun hasilnya belum sebaik yang dihasilkan manusia. Jadi, kamu gak perlu cemas karena takut kalah, ya!
Kenapa GPT-3 Bisa Cerdas?
GPT-3 merupakan machine learning jenis Neutral-Network-Powered Language Model.
Neutral-Network-Powered Language Model berarti model bahasa yang sistem kerja “otak”-nya terinspirasi dari sistem kerja neuron pada otak manusia. Ketika jaringan-jaringan neuron manusia semakin saling terhubung, proses manusia dalam memahami jadi semakin baik. Begitu pula pada model bahasa dengan neutral network dengan jumlah parameter dengan jumlah parameter/koneksi yang lebih banyak akan cenderung punya performa yang lebih baik.
Apa kamu tau berapa jumlah parameter pada neural network GPT-3?
GPT-3 mempunyai sekitar 175 miliar parameter. Meski gak mendekati dengan parameter otak manusia yang jumlahnya 200 triliun, angka ini terbilang besar karena bisa mengalahkan jenis machine learning lain yang paling canggih sebelumnya yang hanya punya 17 miliar parameter.
Secara visual parameternya seperti ini:
Jadi gak heran kalau cara GPT-3 dalam belajar dan memahami semakin mirip dengan manusia. Bahkan fun fact-nya, para pencipta GPT-3 ini gak memperkirakan machine learning tersebut bakal “sepintar” ini.
Nah, kalau tertarik untuk nyobain GPT-3 code generator-nya, kamu bisa mengisi form-nya di link ini lho: https://forms.gle/GTFErmmBge7txodr7!
Kira-kira kalau bisa minta, Co.Creators mau dibuatin tulisan apa dari GPT-3?