Generative AI memang keren, tapi juga bisa berbahaya jika digunakan secara tidak benar. Itu sebabnya model AI dilatih untuk menolak permintaan tertentu yang lebih berbahaya. Kecuali jika Anda menjadi sedikit pintar, Anda mungkin bisa meyakinkan AI untuk mengabaikan pedomannya dan mematuhi permintaan yang meragukan menggunakan petunjuk yang lebih kreatif. Sekarang, Google ingin mengajarkan beberapa sopan santun pada AI-nya. Ini menawarkan untuk membayar orang-orang yang meyakinkan Bard untuk melakukan sesuatu yang buruk.
Program penghargaan kerentanan Google, yang memberikan penghargaan kepada pengguna yang dapat menemukan kerentanan dan kelemahan dalam kode dalam perangkat lunaknya (baik aplikasi dan sistem operasi), diperluas hingga mencakup Bard dan dipertanyakan petunjuknya. Jika Anda kebetulan dapat memutarbalikkan perintah yang cukup cepat untuk membuat Bard melakukan sesuatu yang buruk yang seharusnya tidak dapat dilakukannya (dikenal sebagai serangan injeksi cepat), Google mungkin akan membayar Anda sejumlah uang. VRP juga mencakup jenis serangan lain yang dapat dilakukan pada Bard, seperti pelatihan ekstraksi data, di mana Anda berhasil mendapatkan AI untuk memberi Anda data sensitif, seperti informasi identitas pribadi dan kata sandi.
Google sudah memiliki serangan lain (tidak berbayar) ) saluran pelaporan untuk tanggapan yang salah/aneh secara faktual dan sejenisnya. Perusahaan hanya akan membayar untuk hal-hal yang dapat dimanfaatkan oleh hacker untuk tujuan jahat. Jadi, jika Anda berhasil meyakinkan AI untuk mengatakan hinaan, memberi Anda kunci Windows, atau mengatakan bahwa itu akan membunuh Anda, itu mungkin tidak termasuk dalam program hadiah Google. Google juga mengatakan bahwa mereka tidak akan membayar untuk masalah yang terkait dengan masalah hak cipta atau ekstraksi data yang tidak sensitif, tetapi selain itu, Anda mungkin bisa mendapatkan ribuan dolar dari sebuah laporan tergantung pada seberapa buruk laporan tersebut sebenarnya.
Dengan menangani hal ini berbagai jenis masalah sebagai kerentanan dan memasukkannya ke dalam program bounty-nya, Google berharap dapat memperkuat AI-nya dan membuatnya mematuhi kode etik dan pedomannya dengan sebaik-baiknya. Kami juga berharap Google membayar banyak uang kepada pengguna dari hal ini. Menemukan kelemahan dalam model AI dengan memberikan petunjuk padanya dan melihat apakah kelemahan tersebut melekat sangatlah berbeda dengan membaca kode, mengidentifikasi celah, dan melihat cara melewatinya.
Jika ini adalah sesuatu yang Anda minati, pastikan untuk memeriksanya keluarkan pedoman Google untuk melaporkan masalah pada produk AI, sehingga Anda dapat mengetahui apa yang termasuk dalam cakupan dan apa yang tidak.
Sumber: Google melalui TechCrunch