美国国家标准与技术研究院 (NIST) 近日发布了有关对抗性机器学习 (AML) 攻击和缓解措施指南,大攻的安 呼吁人们再度关注近年来人工智能 (AI) 系统部署增加所带来的击类隐私和安全挑战,并表示这类系统目前没有万无一失的型并方法进行保护。 NIST指出 ,告人工智这些安全和隐私挑战包括恶意操纵训练数据、统带恶意利用模型漏洞对人工智能系统的全和性能造成不利影响,甚至是隐私恶意操纵 、修改或仅仅是风险与模型交互,就可以外泄关乎个人
、高防服务器大攻的安企业甚至是击类模型本身专有的敏感数据 。 伴随着OpenAI ChatGPT 和 Google Bard 等生成式人工智能系统的型并出现,人工智能系统正快速融入在线服务 ,告人工智但支持这些技术的统带模型在机器学习操作的各个阶段都面临着许多威胁。NIST
,全和重点关注了四种主要类型的隐私攻击:逃避、中毒
、亿华云隐私和滥用。 在规避攻击中,NIST 以对自动驾驶车辆的攻击作为示例,例如创建令人困惑的车道标记导致汽车偏离道路 。 针对自动驾驶车辆的规避攻击 在中毒攻击中,攻击者试图在人工智能训练期间引入损坏的数据
。例如,免费模板通过将大量此类语言实例植入对话记录中,让聊天机器人使用不恰当的语言
,以使人工智能相信这是常见的用语 。 在隐私攻击中 ,攻击者试图通过询问聊天机器人大量问题 ,并使用给出的答案对模型进行逆向工程,进而发现弱点来获取有关人工智能或其训练数据中存在的敏感数据。 滥用攻击涉及将不正确的信息插入到源中 ,服务器租用例如网页或在线文档
,然后人工智能吸收这些信息 。与前面提到的中毒攻击不同,滥用攻击试图从合法但受损的来源向人工智能提供不正确的信息,以重新调整人工智能系统的预期用途。 NIST表示
,上述攻击并不需要完全掌握人工智能系统某些方面就可以轻松实施,希望科技界能拿出更好的防御措施来应对这些风险 。
