Apabila anda bercakap dengan chatbot, siapa yang mendengar?
slot online

Apabila anda bercakap dengan chatbot, siapa yang mendengar?


New York
CNN

Ketika sektor teknologi berlumba-lumba untuk membangun dan menggunakan kumpulan chatbot AI baharu yang berkuasa, penggunaan meluas mereka telah mencetuskan satu set kebimbangan privasi data baharu di kalangan sesetengah syarikat, pengawal selia dan pemerhati industri.

Sesetengah syarikat, termasuk JPMorgan Chase (JPM), telah menyekat penggunaan ChatGPT oleh pekerja, chatbot AI viral yang mula-mula memulakan perlumbaan senjata AI Big Tech, disebabkan kebimbangan pematuhan yang berkaitan dengan penggunaan perisian pihak ketiga oleh pekerja.

Ia hanya menambahkan kebimbangan privasi yang semakin meningkat apabila OpenAI, syarikat di sebalik ChatGPT, mendedahkan ia terpaksa membawa alat itu ke luar talian buat sementara waktu pada 20 Mac untuk membetulkan pepijat yang membenarkan sesetengah pengguna melihat baris subjek daripada sejarah sembang pengguna lain.

Pepijat yang sama, kini telah diperbaiki, juga membolehkan “sesetengah pengguna melihat nama pertama dan akhir pengguna aktif yang lain, alamat e-mel, alamat pembayaran, empat digit terakhir (sahaja) nombor kad kredit dan tarikh tamat tempoh kad kredit, ” OpenAI berkata dalam catatan blog.

Dan hanya minggu lepas, pengawal selia di Itali mengeluarkan larangan sementara pada ChatGPT di negara itu, memetik kebimbangan privasi selepas OpenAI mendedahkan pelanggaran itu.

“Pertimbangan privasi dengan sesuatu seperti ChatGPT tidak boleh dilebih-lebihkan,” kata Mark McCreary, pengerusi bersama amalan privasi dan keselamatan data di firma guaman Fox Rothschild LLP, kepada CNN. “Ia seperti kotak hitam.”

Dengan ChatGPT, yang dilancarkan kepada umum pada akhir November, pengguna boleh menjana esei, cerita dan lirik lagu hanya dengan menaip gesaan.

Google dan Microsoft juga telah melancarkan alat AI, yang berfungsi dengan cara yang sama dan dikuasakan oleh model bahasa yang besar yang dilatih mengenai banyak data dalam talian.

Apabila pengguna memasukkan maklumat ke dalam alat ini, McCreary berkata, “Anda tidak tahu bagaimana ia kemudiannya akan digunakan.” Itu menimbulkan kebimbangan yang sangat tinggi bagi syarikat. Memandangkan semakin ramai pekerja secara santai menggunakan alat ini untuk membantu dengan e-mel kerja atau nota mesyuarat, McCreary berkata, “Saya rasa peluang untuk rahsia perdagangan syarikat untuk dimasukkan ke dalam pelbagai AI ini akan semakin meningkat.”

Steve Mills, ketua pegawai etika AI di Boston Consulting Group, juga memberitahu CNN bahawa kebimbangan privasi terbesar yang kebanyakan syarikat mempunyai alat ini ialah “pendedahan maklumat sensitif secara tidak sengaja.”

“Anda mempunyai semua pekerja ini melakukan perkara yang kelihatan sangat tidak berbahaya, seperti, ‘Oh, saya boleh menggunakan ini untuk meringkaskan nota daripada mesyuarat,'” kata Mills. “Tetapi dalam menampal nota daripada mesyuarat ke dalam gesaan, anda tiba-tiba, berpotensi, mendedahkan sejumlah besar maklumat sensitif.”

Jika data yang dimasukkan orang sedang digunakan untuk melatih lebih lanjut alat AI ini, seperti yang dinyatakan oleh banyak syarikat di sebalik alat tersebut, maka anda telah “hilang kawalan ke atas data itu, dan orang lain memilikinya,” tambah Mills.

OpenAI, syarikat yang disokong Microsoft di belakang ChatGPT, berkata dalam dasar privasinya bahawa ia mengumpul semua jenis maklumat peribadi daripada orang yang menggunakan perkhidmatannya. Ia mengatakan ia mungkin menggunakan maklumat ini untuk menambah baik atau menganalisis perkhidmatannya, untuk menjalankan penyelidikan, untuk berkomunikasi dengan pengguna, dan untuk membangunkan program dan perkhidmatan baharu, antara lain.

Dasar privasi menyatakan ia mungkin memberikan maklumat peribadi kepada pihak ketiga tanpa notis lanjut kepada pengguna, melainkan dikehendaki oleh undang-undang. Jika dasar privasi lebih daripada 2,000 perkataan kelihatan agak legap, itu berkemungkinan kerana ini telah menjadi kebiasaan industri dalam era internet. OpenAI juga mempunyai dokumen Terma Penggunaan yang berasingan, yang meletakkan sebahagian besar tanggungjawab kepada pengguna untuk mengambil langkah yang sesuai apabila melibatkan diri dengan alatannya.

OpenAI juga menerbitkan catatan blog baharu hari Rabu yang menggariskan pendekatannya terhadap keselamatan AI. “Kami tidak menggunakan data untuk menjual perkhidmatan kami, pengiklanan atau membina profil orang — kami menggunakan data untuk menjadikan model kami lebih berguna untuk orang ramai,” blogpost menyatakan. “Sebagai contoh, ChatGPT bertambah baik dengan latihan lanjut mengenai perbualan orang ramai dengannya.”

Dasar privasi Google, yang termasuk alat Bardnya, juga panjang lebar, dan ia mempunyai syarat perkhidmatan tambahan untuk pengguna AI generatifnya. Syarikat itu menyatakan bahawa untuk membantu meningkatkan Bard sambil melindungi privasi pengguna, “kami memilih subset perbualan dan menggunakan alat automatik untuk membantu mengalih keluar maklumat yang boleh dikenal pasti secara peribadi.”

“Contoh perbualan ini boleh disemak oleh pengulas terlatih dan disimpan sehingga 3 tahun, secara berasingan daripada Akaun Google anda,” syarikat itu menyatakan dalam Soalan Lazim yang berasingan untuk Bard. Syarikat itu juga memberi amaran: “Jangan sertakan maklumat yang boleh digunakan untuk mengenal pasti anda atau orang lain dalam perbualan Bard anda.” Soalan Lazim juga menyatakan bahawa perbualan Bard tidak digunakan untuk tujuan pengiklanan dan “kami akan menyampaikan dengan jelas sebarang perubahan pada pendekatan ini pada masa hadapan.”

Google juga memberitahu CNN bahawa pengguna boleh “dengan mudah memilih untuk menggunakan Bard tanpa menyimpan perbualan mereka ke Akaun Google mereka.” Pengguna Bard juga boleh menyemak gesaan mereka atau memadamkan perbualan Bard melalui pautan ini. “Kami juga mempunyai pagar pengadang yang direka untuk menghalang Bard daripada memasukkan maklumat yang boleh dikenal pasti secara peribadi dalam responsnya,” kata Google.

“Kami masih belajar dengan tepat bagaimana semua ini berfungsi,” kata Mills kepada CNN. “Anda tidak tahu sepenuhnya bagaimana maklumat yang anda masukkan, jika ia digunakan untuk melatih semula model ini, bagaimana ia ditunjukkan sebagai output pada satu ketika, atau jika ia berlaku.”

Mills menambah bahawa kadangkala pengguna dan pembangun tidak menyedari risiko privasi yang bersembunyi dengan teknologi baharu sehingga sudah terlambat. Contoh yang beliau sebutkan ialah ciri autolengkap awal, beberapa daripadanya akhirnya mempunyai beberapa akibat yang tidak diingini seperti melengkapkan nombor keselamatan sosial yang pengguna mula menaip masuk — selalunya menggera dan mengejutkan pengguna.

Akhirnya, Mills berkata, “Pandangan saya mengenainya sekarang, adakah anda tidak sepatutnya memasukkan apa-apa ke dalam alat ini yang anda tidak mahu andaikan akan dikongsi dengan orang lain.”

result sgp singapura

pengeluaran angka sidney

info keluaran sydney

pengeluaran hk

info togel sgp