Skip to content

emka.web.id

Menu
  • Home
  • Indeks Artikel
  • Tutorial
  • Tentang Kami
Menu

Google dan Microsoft Berlomba untuk Buat Fitur Pencarian dengan AI

Posted on February 09, 2023 by Syauqi Wiryahasana
Ini merupakan tahun yang berat bagi industri teknologi—investor gelisah, PHK mendominasi berita, dan alat sial yang disebut ChatGPT mengancam akan menghancurkan mesin telusur. Jadi, ironisnya, Google dan Microsoft menanggapi ancaman ini dengan berlomba merusak mesin telusur mereka sendiri. Mari kita mulai dari atas; ChatGPT bukan sumber terpercaya untuk informasi apa pun. Ini adalah alat yang menarik, dapat memenuhi beberapa tugas, tetapi tidak cerdas dan tidak memiliki pemahaman atau pengetahuan apa pun. Sayangnya, chatbot seperti ChatGPT bisa terasa sangat otoritatif, sehingga banyak orang (termasuk jurnalis, investor, dan pekerja di sektor teknologi) secara keliru percaya bahwa ini berpengetahuan luas dan akurat. Sekarang, Anda dapat mengatakan bahwa alat seperti Google Penelusuran tidak cerdas, dan Anda akan benar. Anda juga dapat mengkritik keefektifan Google Search atau Bing—layanan ini dipermainkan oleh situs web, dan akibatnya, mereka membawa banyak sekali sampah ke permukaan internet. Namun tidak seperti ChatGPT, Google tidak menjawab pertanyaan. Itu hanya menautkan Anda ke situs web, membiarkan Anda mencari tahu apakah ada sesuatu yang benar atau salah. Ini adalah alat agregat, bukan otoritas. Tapi mesin hype mengirim ChatGPT ke stratosfer, dan teknologi besar ingin mengikutinya. Setelah blog teknologi dan kepribadian internet acak memuji ChatGPT sebagai kejatuhan Google Search, Microsoft melakukan investasi besar dalam teknologi dan mulai mengintegrasikannya dengan Bing. Teman-teman kami di Google menanggapi dengan Bard, chatbot AI khusus yang mengandalkan model LaMDA eksperimental. Microsoft dan Google sedang berlomba untuk melihat siapa yang dapat mempercepat teknologi ini keluar. Mereka tidak hanya akan meminjamkan otoritas untuk alat seperti ChatGPT, tetapi mereka akan menyajikan AI yang tidak dipoles ini kepada pengguna yang tidak tahu apa-apa. Itu tidak bertanggung jawab, itu akan memperkuat informasi yang salah, dan itu akan mendorong orang untuk mengesampingkan penelitian. Belum lagi, teknologi ini akan memaksa Microsoft dan Google untuk menjadi arbiter dari apa yang benar atau salah. Jika kita akan memperlakukan AI percakapan sebagai otoritas, itu harus terus disesuaikan dan dimoderasi untuk menghilangkan ketidakakuratan. Siapa yang akan membuat keputusan itu? Dan bagaimana tanggapan orang ketika keyakinan atau "pengetahuan" mereka tidak diwakili oleh AI yang mewah? Saya juga harus memperhatikan bahwa model percakapan ini dibangun di atas data yang ada. Saat Anda mengajukan pertanyaan, ChatGPT mungkin merespons menggunakan informasi dari buku atau artikel, misalnya. Dan saat CNET mencoba menguji seorang penulis AI, CNET menerbitkan banyak sekali konten yang dijiplak. Data yang mendorong teknologi ini adalah mimpi buruk hak cipta, dan regulasi sepertinya merupakan kemungkinan yang kuat. (Jika itu terjadi, regulasi dapat secara dramatis meningkatkan biaya pengembangan AI percakapan. Melisensikan semua konten yang diperlukan untuk membangun teknologi ini akan menghabiskan banyak uang.) Sekilas tentang Bard Google menunjukkan bahwa Google Bard mungkin sangat terintegrasi dengan Penelusuran, menyajikan informasi di dalam dari mesin pencari biasa dan di dalam kotak obrolan khusus. Hal yang sama berlaku untuk AI percakapan Bing. Alat-alat ini sekarang sedang diuji dan diselesaikan, jadi kami berharap dapat mempelajari lebih lanjut dalam beberapa minggu mendatang. Ngomong-ngomong, Google dan Microsoft telah menerbitkan banyak prinsip AI. Mungkin ada baiknya membaca prinsip-prinsip ini untuk melihat bagaimana perusahaan mendekati pengembangan AI. Disadur dari HowToGeek.com.
Seedbacklink

Recent Posts

TENTANG EMKA.WEB>ID

EMKA.WEB.ID adalah blog seputar teknologi informasi, edukasi dan ke-NU-an yang hadir sejak tahun 2011. Kontak: kontak@emka.web.id.

©2024 emka.web.id Proudly powered by wpStatically