財聯社5月3日訊(編輯 馬蘭) 據一份內部備忘錄顯示,三星本周推出了一項新政策,要求員工不得在工作場所使用OpenAI的ChatGPT和谷歌Bard等生成式人工智能。
(相關資料圖)
據三星稱,4月時,該公司的一名工程師將內部源代碼上傳到ChatGPT后,意外泄漏了內部源代碼。這讓三星擔憂其數據將通過人工智能平臺最終落入其他用戶手中。
目前,三星員工被禁止在公司設備上使用人工智能工具,包括電腦、平板電腦、手機等。但員工仍可以在個人設備上使用人工智能工具,不過僅限于與工作無關的事情。
備忘錄中還強調,要求員工認真遵守安全準則,若違規(guī)并導致公司信息或數據泄漏的話,員工將得到紀律處分,情節(jié)嚴重者將被解雇。
三星補充稱正在創(chuàng)造一個安全環(huán)境,以讓生成式人工智能可以在沒有風險的情況下,幫助員工提高生產力。但在此之前,人工智能將被限制使用。
與此同時,三星正在研發(fā)自己的人工智能工具,供員工完成軟件開發(fā)和翻譯等工作。
保持距離
三星并不是第一個禁止員工使用人工智能工具的公司。摩根大通、美國銀行和花旗等大型銀行早已對人工智能下了禁令,是首批限制員工訪問ChatGPT的公司。
這些銀行同樣擔憂第三方軟件訪問敏感信息帶來的風險,并害怕人工智能可能將銀行的財務信息泄漏出去,導致更嚴格的監(jiān)管行動。
此外,1月時,科技巨頭亞馬遜也同樣出于數據保護的考量,警告員工不要在工作場合中使用ChatGPT。
OpenAI在4月時稱將出臺新措施,解決數據泄露問題,比如允許用戶禁用聊天記錄。OpenAI稱,在禁用聊天記錄后,ChatGPT會將新對話保留30天,公司只會在需要監(jiān)控濫用情況時才會對對話進行審查,然后永久性刪除。
谷歌則表示將通過自動化工具幫助刪除用戶的個人身份信息,來改進Bard的隱私安全。谷歌還保證,用戶與Bard的對話將由專家進行審閱,并與用戶的谷歌賬戶分開保存3年。
關鍵詞:







