大型语言模型人工智能并不完美,有时会产生不正确的信息。 这些被称为幻觉的事件可能对企业和个人人工智能爱好者构成网络威胁。
幸运的是,您可以通过提高意识和健康思维来加强对人工智能幻觉的防御。
AI为什么会产生幻觉?
尽管有一些可能的猜测,但对于人工智能模型为什么会产生幻觉,尚未达成共识。
人工智能是使用庞大的数据集进行训练的,这些数据集通常包含思维差距、内容偏差或有害偏见等错误。 对这些不完整或不充分的数据集的任何训练都可能导致幻觉,即使数据集的后续迭代是由数据科学家策划的。
随着时间的推移,数据科学家可以使信息更加准确,并添加额外的知识来填补空缺并最大限度地减少产生幻觉的可能性。 主管可能会错误地标记数据。 编程代码可能包含错误。 随着基于机器学习算法的人工智能模型不断发展,解决这些问题至关重要。
这些算法使用数据来做出决策。 人工智能的神经网络是其延伸,它利用机器学习来做出更接近人类思维原创性的新决策。 这些网络包含分析远程数据点之间关系的变压器。 当变压器发生故障时,可能会出现幻觉。
人工智能幻觉如何为黑客提供机会
不幸的是,人工智能会产生幻觉并不是常识,即使人工智能大错特错,她也会听起来很自信。 这一切都导致用户更加自满和信任人工智能,而威胁行为者则依靠这种用户行为来诱使他们下载或发起攻击。
为了 example,人工智能模型可以产生假的代码库并推荐用户下载该库。 该模型很可能会继续向许多提出类似问题的用户推荐相同的幻觉库。 如果黑客发现了这种幻觉,他们就可以创建一个虚拟库的真实版本——尽管其中充满了危险代码和恶意软件。 现在,如果AI不断推荐代码库,无知的用户就会下载黑客的代码。
对于威胁行为者来说,下一步是利用人工智能幻觉来传输恶意代码和程序,这并不令人意外。 黑客不一定会创造无数新型网络威胁 – 他们只是寻找新的方法来毫无怀疑地传播它们。 人工智能幻觉依赖于电子邮件链接点击所依赖的人类天真(这就是为什么您应该使用链接检查工具来验证 URL)。
黑客还可以将其提升到一个新的水平。 如果您需要编码帮助并下载伪造的恶意代码,威胁行为者实际上可能通过在后台运行恶意程序来使代码正常工作。 仅仅因为它按照您期望的方式工作并不意味着它不危险。
由于在线自动驾驶行为,缺乏意识可能会诱使您下载人工智能生成的建议。 每个行业都面临着将人工智能纳入其业务实践的文化压力。 无数的非科技组织和行业正在尝试使用缺乏经验、甚至网络安全水平较低的人工智能工具来保持竞争力。
如何保护自己免受武装人工智能引起的幻觉的影响
进展即将到来。 在公司调整数据集和业务条款以防止不道德的生成之前,使用生成式人工智能创建恶意软件很容易。 了解了危险的人工智能幻觉可能对社会、技术和个人造成的脆弱性,有哪些选择可以保持安全?
业内任何人都可以致力于推进神经网络技术和库验证。 在将答案传达给最终用户之前,必须进行制衡。 虽然这是行业的必要进步,但您也可以在保护自己和他人免受生成式人工智能威胁方面发挥作用。
普通用户可以使用以下策略练习识别人工智能幻觉:
- 查找拼写和语法错误。
- 检测查询上下文何时与响应上下文不匹配。
- 当基于计算机视觉的图像与人眼对概念的看法不匹配时,请予以确认。
从互联网下载内容时务必小心,即使是人工智能推荐的内容。 如果AI建议下载代码,不要盲目下载; 检查所有评论以确保代码合法,并查看是否可以找到有关创建者的任何信息。
对基于幻觉的人工智能攻击的最佳抵抗是侦察。 谈论你的经历并阅读其他人如何引发恶意幻觉,无论是偶然还是故意测试,对于人工智能的未来导航都是无价的。
改善人工智能网络安全
与人工智能交谈时,你必须小心你的要求。 通过尽可能具体并质疑屏幕上出现的所有内容来限制危险结果的风险。 在安全环境中测试代码并对其他看似可信的信息进行事实检查。 此外,与他人合作、讨论您的经验以及简化有关人工智能幻觉和网络安全威胁的术语可以帮助大众对黑客变得更加警惕和有弹性。