随着ChatGPT的诞生,近来AI浪潮席卷全球,人工智慧的应用越来越广泛。AI现在已经成为不少人工作、生活的好帮手,甚至遇上感情受挫、人生低潮,都有人会向AI求解。但随着分享的事情越多,资讯安全就显得更重要,有专家就提醒,有5件事最好别告诉ChatGPT,以免造成个资外泄的风险。

图片来源 / 翻摄自Tagesschau
根据媒体《New York Post》的报导,史丹佛大学「人本人工智慧研究中心 (HAI)」研究员珍妮佛 (Jennifer King) 直言,「当人们在聊天机器人中输入某些内容时,你就已经失去了对它的控制权」,ChatGPT所属公司OpenAI也在官网提醒用户,「请不要在对话中分享任何敏感信息」,Google聊天机器人Gemini的页面也注明避免输入「你不希望审查员看到的机密信息或数据」。

示意图。图片来源 / 翻摄自MakeUseOf
珍妮佛就指出有5件事绝对别告诉聊天机器人,首先是「身分资讯」,包括身分证字号、驾照号码、护照号码、生日、地址、电话号码等。想要请ChatGPT解释医疗检测结果,也别将自己的「医疗资讯」上传,因为AI不受医疗个资法规范,用户在上传文件前可以事先剪裁或编辑,只留下部分结果就好。

示意图。图片来源 / 翻摄自ZDNET
再来是「登入资讯」和「金融帐号」,AI机器人不是保险箱,不能保证这些帐号密码的安全,这些资讯可能会被骇客入侵窃取,进而造成个资或财物损失。上班族则别将「企业资讯」告诉AI,像是客户资料或非公开商业机密,同样会有外泄的风险。

示意图。图片来源 / 翻摄自LinkedIn
工作业务往来寄信最为正式,可是有很多细节需要讨论的话,用信件来来回回相对麻烦,沟通时间拉得很长,所以很多公司团队内部会用通讯软体联络。一位网友夸奖有个软体比LINE还好用,更是因此体会到把上下班生活分开的美好:「被当作人的感觉真好!」【更多内容请到下方延伸阅读】

示意图非当事人,翻摄自《直到疯狂》
(往下還有更多精彩文章!)