蚂蚁集团发布AI安全检测平台“蚁鉴2.0”_模型_技术_人工智能

7月7日,在世界人工智能大会(WAIC)“聚焦·大模型时代AIGC新浪潮—可信AI”论坛举行,蚂蚁集团联合清华大学发布AI安全检测平台“蚁鉴2.0”。 蚁鉴2.0可实现用生成式AI能力检测生成式AI模型,可识别数据安全、内容安全、科

7月7日,在世界人工智能大会(WAIC)“聚焦·大模型时代AIGC新浪潮—可信AI”论坛举行,蚂蚁集团联合清华大学发布AI安全检测平台“蚁鉴2.0”。

蚁鉴2.0可实现用生成式AI能力检测生成式AI模型,可识别数据安全、内容安全、科技伦理三大类的数百种风险,覆盖表格、文本、图像等多种数据和任务类型。据了解,该产品还入选了本届大会的“镇馆之宝”。

AIGC安全成为当前人工智能研究发展的重要议题。中国科学院院士何积丰在论坛主题演讲中提及,“不能再将人工智能视为简单的技术工作,而是成为整个组织的变革引擎。可信人工智能要致力于保障数据安全可信、系统行为可追责、算法模型可解释、网络环境可信、法律伦理可信等问题。”

蚂蚁集团同时宣布“蚁鉴2.0”全面开放,面向全球开发者免费提供AIGC安全性、AI可解释性、AI鲁棒性三项检测工具,可服务于数字金融、教育、文化、医疗、电商等领域的大规模复杂业务场景。

据了解,“蚁鉴2.0”的两项能力,一是实现了用生成式能力检测生成式模型。检测标准覆盖内容安全、数据安全、伦理安全三大类,可对大模型生成式内容完成包含个人隐私、意识形态、违法犯罪、偏见与歧视等数百个维度的风险对抗检测,并会生成检测报告,帮助大模型更加有针对性地持续优化。

蚂蚁集团大安全事业群技术部总裁李俊奎表示,“生成式大模型是一种‘深黑盒’技术,‘蚁鉴2.0’通过智能博弈对抗技术,模拟黑产以及自动化生成海量测试集,可实现「生成式机器人」对「AIGC生成式模型」的诱导式检测计算,很像一个24小时不眠不休的‘安全黑客’在找茬大模型,从而找到大模型存在的弱点和安全问题所在。这种AI对AI的评测,也是教学相长。好比生成式考官考核生成式运动员,在对抗中双方能力互相提升,进一步提高整个行业的AI安全水位。”

另一项能力是,“蚁鉴2.0”融入了可解释性检测工具。综合AI技术和专家先验知识,通过可视化、逻辑推理、因果推断等技术,从完整性、准确性、稳定性等7个维度及20余项评估指标,对AI系统的解释质量量化分析,帮助用户更清晰验证与优化可解释方案。

此次论坛上,中国信通院、上海人工智能实验室、武汉大学、蚂蚁集团等多家单位共同发起的《AIGC可信倡议》。论坛现场还发布了由中国信通院、清华大学、蚂蚁集团联合编纂的《可信AI技术和应用进展白皮书(2023)》。

本文来自投稿,不代表长河网立场,转载请注明出处: http://www.changhe99.com/a/gjrXzkvodn.html

(0)

相关推荐