人工智能企业的九大安全政策
以ChatGPT为代表的基于LLM(大语言模型)的生成式人工智能应用正风靡全球,各行各业都在争先恐后将其集成到前端和后端的各种系统中,生成式人工智能面临的安全风险也正随着其热度上升而凸显。
需要警惕的是,生成式人工智能自身正面临提示注入等多种攻击,很可能给企业带来数据泄露、内容安全等新兴威胁。此外,由于生成式AI与生俱来的“黑匣子”特性,伴随“AI军备竞赛”快速成长的自主AI系统越来越难以监管,随时有可能失控并带来灾难性后果。
本周三举行的英国人工智能安全峰会呼吁研发先进人工智能技术的企业应该重视九大人工智能安全政策:
- 风险管理框架。为组织提升前沿人工智能系统的能力提供一个风险管理框架,使公司能够在未来潜在的、更危险的人工智能风险发生之前做好准备。
- 模型评估和红队测试可以帮助评估人工智能模型带来的风险,并为有关训练、保护和部署模型的更好决策提供信息。
- 模型报告和信息共享可提高政府对前沿人工智能开发和部署的可见性,并使用户能够就是否以及如何使用人工智能系统做出明智的选择。
- 包括保护模型权重在内的安全控制是人工智能系统安全的关键基础。
- 漏洞的报告机制有助于外部人员识别并报告人工智能系统中的安全问题。
- 人工智能内容标记。人工智能生成内容需要添加标识符,用于识别该内容是否由人工智能生成或修改,有助于防止欺骗性人工智能生成内容的创建和分发。
- 优先研究人工智能带来的风险将有助于识别和解决前沿人工智能带来的新风险。
- 防止和监控模型滥用非常重要,因为人工智能系统一旦部署,可能会被故意滥用,造成有害结果。
- 数据输入控制和审计可以帮助识别和删除可能增加先进人工智能系统危险能力和风险的训练数据。
第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom
除非注明,本站文章均为原创或编译,未经许可严禁转载。
相关文章: