三星電子宣布:禁用ChatGPT等生成式AI工具 違者恐開除

FILE - The OpenAI logo is seen on a mobile phone in front of a computer screen displaying output from ChatGPT, Tuesday, March 21, 2023, in Boston. Are tech companies moving too fast in rolling out powerful artificial intelligence technology that could one day outsmart humans? That is the conclusion of a group of prominent computer scientists and other tech industry notables who are calling for a 6-month pause to consider the risks. Their petition published Wednesday, March 29, 2023, is a response to San Francisco startup OpenAI's recent release of GPT-4. (AP Photo/Michael Dwyer, File)

南韓三星電子發現員工將敏感資訊上傳到ChatGPT等蔚為風潮的生成式AI工具,1日發出公告宣布,基於安全考量,禁止所有員工利用公司設備、內部網路時使用ChatGPT等服務,成為這種技術應用於工作場域的一大挫敗。

《彭博》取得三星電子發給員工的備忘錄指出,員工上傳到ChatGPT、Google Bard及Bing等AI平台的數據儲存在外部伺服器,難以回收及刪除,恐怕外洩給其他使用者,因此下令禁止使用,違者可能面臨解雇。

該公司3月調查內部AI工具使用情形,結果有65%員工認為,這類服務構成安全風險。備忘錄也提到,三星工程師4月初使用ChatGPT時意外洩露內部原始碼。目前不清楚這些原始碼涉及何種內容,三星一名代表拒絕發表評論。

三星向員工表示,「公司內外對ChatGPT等生成式AI平台的關注持續增長,雖然人們聚焦這些平台的實用性與效率,卻也對其帶來的安全風險愈來愈憂心。」

三星禁止員工利用公司擁有的電腦、平板電腦、手機及內部網路時使用生成式AI系統,也要求員工在個人設備上使用ChatGPT等工具時,不要上傳任何公司相關資訊或涉及公司智慧財產權的個人數據,違者可能被解雇。

備忘錄中寫道,「我們要求努力遵守安全準則,若不照做可能導致公司資訊外洩,進而引發紀律處分,甚至終止僱傭關係。」

另一方面,三星正開發內部專屬的AI工具,用於翻譯、概述文件,甚至是軟體開發,也正研究如何防止公司敏感資訊被上傳到外部服務。ChatGPT上月就推出「無痕(incognito)模式」,使用者可以拒絕將聊天紀錄用於訓練AI模型。

三星說明,「總部正在審查安全措施,創造安全使用生成式AI的安全環境,以提升員工生產力及效率。但在這些措施就緒以前,我們暫時限制使用生成式AI。」

Written by admin