Google memperingatkan karyawan untuk tidak menggunakan informasi rahasia di AI Chatbot

Google memperingatkan karyawan untuk tidak menggunakan informasi rahasia di AI Chatbot

Alphabet, perusahaan induk Google, telah memperingatkan karyawan tentang bahaya menggunakan alat AI dan menyarankan mereka untuk tidak memasukkan informasi sensitif ke dalam chatbot, termasuk chatbot Bard.

Menurut laporanAlphabet memperingatkan karyawan agar tidak menggunakan chatbot bertenaga AI seperti ChatGPT Open AI untuk memberikan data rahasia. Perusahaan memverifikasi ini, mengutip kebijakan keamanan informasi yang sudah lama ada. Pada tanggal 1 Juni, pemberitahuan privasi Google yang diperbarui mengatakan, “Jangan sertakan informasi rahasia atau sensitif dalam percakapan Bard Anda.”

Chatbots, seperti Bard dan ChatGPT, adalah aplikasi perangkat lunak mirip manusia yang terlibat dalam diskusi dengan pengguna dan menjawab berbagai pertanyaan menggunakan apa yang disebut kecerdasan buatan generatif. Obrolan yang dihasilkan di chatbots dapat diakses dan dibaca oleh peninjau manusia, dan peneliti telah menemukan bahwa AI serupa yang mungkin mereplikasi data yang dicerna selama pelatihan dapat menimbulkan risiko kebocoran.

Selain itu, Alphabet memperingatkan para insinyurnya untuk tidak menggunakan kode komputer yang dibuat oleh chatbot secara langsung. Terlepas dari kenyataan bahwa bot dapat menghasilkan jenis kode tertentu, mereka juga berisiko menimbulkan bug atau memberikan saran yang “tidak diinginkan”. Google juga telah menyatakan ingin transparan tentang keterbatasan teknologinya.

Kekhawatiran tersebut bermula dari keinginan Google untuk mencegah kerugian bisnis dari perangkat lunak yang dirilisnya untuk bersaing dengan ChatGPT. Ada miliaran dolar investasi dalam pengerjaan serta jumlah iklan dan pendapatan cloud yang tak terhitung dari perangkat lunak AI baru dalam persaingan Google dengan pendukung ChatGPT OpenAI dan Microsoft.

Peringatan Google juga mencerminkan apa yang telah menjadi standar keamanan bagi perusahaan yang memperingatkan karyawan agar tidak menggunakan chatbot yang dapat diakses oleh masyarakat umum. Semakin banyak perusahaan di seluruh dunia, termasuk Samsung, Amazon, Apple, dan Deutsche Bank, telah membatasi chatbot cerdas.

READ  Anda harus memainkan game aksi 2021 yang paling diremehkan di PS Plus secepatnya

Dalam sebuah survei oleh situs jaringan Fishbowl, sekitar 43 persen profesional sering menggunakan alat AI seperti ChatGPT tanpa memberi tahu atasan mereka. Sekitar 12.000 responden mengikuti survei ini, termasuk dari perusahaan besar yang berlokasi di Amerika Serikat. Tren ini telah menimbulkan kekhawatiran serius di antara para peneliti, perusahaan, dan negara tentang masalah privasi dan kelayakan kerja karena alat AI mampu menggantikan manusia.

Dalam pernyataan yang diberikan kepada PolitikSeorang juru bicara Google mengatakan, “Kami mengatakan pada bulan Mei bahwa kami ingin membuat Bard tersedia lebih luas, termasuk di Uni Eropa, dan kami akan melakukannya secara bertanggung jawab, setelah melibatkan para ahli, regulator, dan pembuat kebijakan.” “Sebagai bagian dari proses ini, kami telah berbicara dengan regulator privasi untuk menjawab pertanyaan mereka dan mendengarkan umpan balik,” tambah juru bicara tersebut.

Beberapa perusahaan telah membuat program untuk mengatasi masalah tersebut. Misalnya, Cloudflare, perusahaan yang melindungi situs web dari serangan dunia maya dan menyediakan layanan cloud lainnya, mempromosikan fitur yang memungkinkan perusahaan menandai data tertentu dan mencegahnya dikirim secara eksternal. CEO Cloudflare Matthew Prince telah menyatakan bahwa memasukkan data sensitif ke dalam chatbots seperti “mengedit sekelompok mahasiswa PhD di seluruh catatan pribadi Anda”

Selain itu, Google dan Microsoft menyediakan alat percakapan untuk pelanggan bisnis dengan biaya lebih tinggi, tetapi alat yang mahal akan memeras data mereka ke dalam model AI sumber terbuka. Pengguna dapat memilih untuk menghapus riwayat percakapan mereka di Bard dan ChatGPT, yang disimpan karena pengaturan defaultnya.

About The Author

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *