基本信息
文件名称:2025大模型安全挑战与实践构建 AI 时代的安全防线.pptx
文件大小:6.73 MB
总页数:38 页
更新时间:2025-10-30
总字数:约1.57千字
文档摘要
;大模型安全风险;有研究表明,仅需花费60美元,就能毒害0.01%的LAION-400M(4亿)或COYO-700M(7亿)
数据集,而引入少至100个中毒样本就可能导致大模型在各种任务中生成恶意输??。
芝加哥大学开发了一个“龙葵”数据投毒工具,通过在生成图 像的人工智能程序使用的训练数据中引入误导或混淆的信息 ,破坏人工智能的学习结果。此工具能够帮助制裁人工智能 企业这种不尊重艺术家版权和知识产权的行为,这也是数据 投毒工具应用一个有意思的场景。;一个程序员使用ChatGPT编码的时候,GPT给??的代码里调用了一个恶意的API地址,然后更要命的 是生成的代码里是直接把p