
Sejumlah perusahaan besar AS menggunakan sistem pemantauan AI untuk menganalisis komunikasi karyawan di aplikasi bisnis populer seperti Slack, Teams, dan Zoom…
Salah satu model AI mengklaim mampu menganalisis konten dan sentimen baik teks maupun gambar yang diposting oleh karyawan, lapor CNBC.
Beberapa dari alat ini digunakan dengan cara yang relatif tidak berbahaya – seperti menilai reaksi agregat karyawan terhadap hal-hal seperti kebijakan perusahaan baru
“Alat ini tidak akan mencantumkan nama orang, untuk melindungi privasi,” kata CEO Aware Jeff Schumann. Sebaliknya, katanya, klien akan melihat bahwa “mungkin angkatan kerja yang berusia di atas 40 tahun di wilayah Amerika Serikat ini melihat perubahan kebijakan secara sangat negatif karena biayanya, namun semua orang di luar kelompok usia tersebut dan lokasi melihatnya secara positif karena memberikan dampak yang berbeda.”
Namun alat lain – termasuk alat lain yang ditawarkan oleh perusahaan yang sama – dapat menandai postingan individu tertentu. Lusinan model AI
Aware, yang dibuat untuk membaca teks dan memproses gambar, juga dapat mengidentifikasi penindasan, pelecehan, diskriminasi, ketidakpatuhan, pornografi, ketelanjangan, dan perilaku lainnya.
Komentar teratas oleh Tom
Disukai oleh 4 orang Biarkan ini menjadi peringatan buruk untuk masa depan jika pemerintah Anda tidak memiliki undang-undang privasi yang layak.
Saya tahu banyak orang di AS menginginkan “pemerintahan yang lebih sedikit” tetapi ini sekali lagi menunjukkan bahwa perusahaan perlu diawasi setiap saat. Saya sangat senang tinggal di UE dalam hal privasi.
Lihat semua komentar Chevron, Delta, Starbucks, T-Mobile, dan Walmart hanyalah beberapa perusahaan yang dikatakan menggunakan sistem ini. Aware mengatakan pihaknya telah menganalisis lebih dari 20 miliar interaksi di lebih dari tiga juta karyawan.
Meskipun layanan ini dibuat berdasarkan alat pemantauan berbasis non-AI yang telah digunakan selama bertahun-tahun, beberapa orang khawatir bahwa layanan tersebut telah berpindah ke wilayah Orwellian.
Jutta Williams, salah satu pendiri organisasi nirlaba akuntabilitas AI, Humane Intelligence, mengatakan AI menambah masalah baru dan berpotensi menimbulkan masalah pada apa yang disebut program risiko orang dalam, yang telah ada selama bertahun-tahun untuk mengevaluasi hal-hal seperti spionase perusahaan, terutama dalam komunikasi email.
Berbicara secara umum tentang pengawasan karyawan AI daripada teknologi Aware secara khusus, Williams mengatakan kepada CNBC: “Banyak dari hal ini menjadi kejahatan pemikiran.” Dia menambahkan, “Ini memperlakukan orang seperti inventaris dengan cara yang belum pernah saya lihat” […]
Amba Kak, direktur eksekutif AI Now Institute di Universitas New York, khawatir tentang penggunaan AI untuk membantu menentukan apa yang dianggap perilaku berisiko .
“Hal ini menimbulkan efek mengerikan terhadap apa yang dikatakan orang-orang di tempat kerja,” kata Kak, sambil menambahkan bahwa Komisi Perdagangan Federal, Departemen Kehakiman, dan Komisi Kesetaraan Kesempatan Kerja telah menyatakan keprihatinannya mengenai masalah ini, meskipun dia tidak berbicara. khusus tentang teknologi Aware. “Ini adalah masalah hak-hak pekerja dan juga masalah privasi.”
Kekhawatiran tambahan adalah bahwa bahkan data agregat dapat dengan mudah dianonimkan ketika dilaporkan pada tingkat yang terperinci, “seperti usia karyawan, lokasi, divisi, masa kerja, atau fungsi pekerjaan.”
Foto oleh Andres Siimon di Unsplash
Itulah konten tentang AI memantau karyawan untuk ‘kejahatan pikiran’ di aplikasi seperti Slack dan Zoom, semoga bermanfaat.