"Teknologi ini baru seminggu yang lalu diluncurkan untuk mesin pencari. Saat ini teknologi BERT baru bisa mengenali dalam bahasa Inggris AS," ujar Public Liaison for Search, Google, Danny Sulliva, ditemui di kantor Google Indonesia, di Jakarta, Selasa.
Tahun lalu, Google memperkenalkan sebuah teknik open source berbasis jaringan neural untuk pelatihan awal natural language processing (NLP) untuk mengembangkan teknologi BERT tersebut.
Teknologi ini memungkinkan pengguna untuk melatih sistem penjawab pertanyaan pada mesin pencari. Dengan menerapkan model BERT, Google Search mampu membantu pengguna menemukan informasi dengan lebih baik.
"BERT lebih memahami pencarian yang dicari, yang memungkinkan untuk mengerti kalimat, yang sebelumnya hanya menghubungkan kata per kata," kata Danny.
Lebih jauh, Danny menjelaskan Search sebelumnya hanya mengambil sejumlah kata dari frase atau kalimat yang dimasukkan dalam box untuk kemudian dicocokan pada mesin pencari.
Misalnya, Danny memberi contoh dalam kalimat "Can you get medicine for someone pharmacy," Search awalnya hanya akan mengambil kata "get medicine" dan "pharmacy," namun kini Search dapat pula mengenali kata "for someone" yang menambah makna dalam pencarian.
Hasil pencarian yang lebih pintar tersebut dimungkinkan karena Google telah memiliki perangkat keras Tensor Processing Unit (TPU) dalam teknologi BERT.
Dari teknologi tersebut, Search kini dapat menawarkan hasil yang lebih relevan dengan berbandingan satu banding 10 pencarian dalam berbasaha Inggri AS.
"Kami memperkirakan sekarang ini BERT membantu satu dari sepuluh kueri yang merupakan perubahan besar bagi kami untuk meningkatkan hasil pencarian," ujar Danny.
Baca juga: Gmail dengan tema gelap meluncur di Android dan iOS
Baca juga: Google bergulat dengan masalah kepercayaan
Baca juga: Waymo bawa kendaraan otonom ke LA untuk uji coba
Pewarta: Arindra Meodia
Editor: Alviansyah Pasaribu
Copyright © ANTARA 2019