三星因ChatGPT泄密后:马上严查 推出自家AI机器人

三星已经为自己树立了一个不应该使用人工智能聊天机器人的例子,比如OpenAI的ChatGPT、微软的必应聊天或谷歌的Bard。

此前至少有三名三星员工不小心向OpenAI的ChatGPT泄露了敏感信息,其中一个例子涉及机密数据库的源代码被输入聊天机器人以检查错误。另一个例子包括一名三星员工共享代码优化,最后一个例子是一名员工要求聊天机器人将三星内部会议视频转换为会议记录。

三星的问题似乎已经得到了解决,有报道称,该公司立即推出了一项回应,禁止每位三星员工向ChatGPT上传超过1024字节的内容。此外三星已经对泄密事件的相关人员展开了内部调查,并将创建自己的内部聊天机器人,以防止进一步的问题产生。

然而,这种新的限制更像是对更大问题的权宜之计,随着人工智能聊天机器人越来越容易接触并融入社会和商业的各个方面,人们将不得不与它们分享敏感信息。

热门相关:帝少的专属:小甜心,太缠人   霸皇纪   网游之逆天飞扬   仗剑高歌   寂静王冠