目前最流行的人工智能聊天机器人是 ChatGPT。虽然随着用户数量的增加,可能性也在扩大,但输入个人信息的危险却变得越来越严重。专家表示,与人工智能聊天机器人的不当信息共享已成为一种新的安全风险。
在本文中,切勿向 ChatGPT 提供 5 条机密信息解释。这不仅适用于ChatGPT,也适用于所有AI聊天机器人,所以以后想要使用它的人要小心。
个人身份信息的风险
个人身份信息,例如姓名、地址、出生日期和社会安全号码严禁入内。尽管OpenAI实现了新的隐私保护功能,但信息泄露的风险仍然存在。
账户信息保护
登录信息,例如用户名和密码也要小心。安全专家警告说,对多个服务的未经授权的访问可能会级联,特别是在重复使用密码的情况下。
财务信息泄露风险
财务数据,例如信用卡号码和银行账户信息输入信息可能直接导致未经授权的使用或欺诈损害。 OpenAI 不需要任何此类信息,输入这些信息本身就会带来重大风险。
泄露企业机密信息案件
在三星电子,输入 ChatGPT 的机密内部代码是,严重信息泄露事故发生。收到此消息后,谷歌包括苹果和苹果在内的许多全球科技公司都对其公司内人工智能聊天机器人的使用进行了严格限制。
医疗信息隐私问题
个人健康数据和病史信息也要小心。医疗隐私专家指出,这些信息可能会作为人工智能训练数据永久存储。建议您对具体症状保密,只询问一般性问题。
措施及未来展望
人道的“人工智能针”和苹果的“视觉专业版“ ETC。注重隐私的设备端人工智能发展正在取得进展。然而,在确保完全安全之前,处理个人信息时必须格外小心。
(来源:背景GR)
