人工智能正在加速各行各业的智能化转型,但数据隐私、算法偏差、技术滥用等安全问题也给人工智能的治理和产业发展带来严峻挑战。
未来的人工智能如何在创新发展与安全可控之间取得平衡?在近日举行的北京致远大会AI安全与产业治理论坛上,中科院院士、清华大学人工智能研究院院长张忠表示,人工智能产业未来的发展,必须在拓展应用场景的同时,实现数据、算法、应用层的安全可控。
“应该从技术层面解决人工智能的安全可控问题。”在具体实现路径上,张伟提出了“第三代人工智能”的发展,即融合第一代知识驱动和第二代数据驱动的人工智能,利用数据、知识、算法、计算力四大要素,开发安全、可信、可靠、可扩展的AI技术。
如何定义人工智能为“安全可控”?北京瑞来智能科技有限公司CEO田甜认为,“安全”是指构建数据安全和算法安全两大核心能力,解决强数据依赖性带来的隐私泄露等隐患,提高算法的可靠性,从而保证系统稳定运行,在网络过载或故意攻击的情况下不崩溃;“可控”不仅指应用层面的合规可控,还指核心技术的自主可控。在自主可控的基础上,通过理论创新和技术突破形成核心竞争力。可控性是第三代人工智能发展的核心标杆,也是加快人工智能高质量发展的有力支撑。
数据和算法的不安全是制约当前人工智能产业发展的主要因素,也是发展安全可控的人工智能需要解决的核心问题。在中国信息通信研究院安全研究所信息安全研究部主任魏巍看来,人工智能和数据产业相互促进发展的同时,安全问题也相互影响。一方面,由于人工智能对数据的强依赖性,其自身的数据安全风险、应用引发的数据安全风险以及应用加剧的数据治理挑战日益凸显;另一方面,人工智能也为数据管理提供了自动化、智能化、高效化、精准化的智能支持。
相对于数据安全,算法安全的问题正在显现。阿里资深安全算法专家何源介绍,虽然人工智能技术在网络环境净化、知识产权保护、生物识别、离线安全等安全工作中发挥了越来越重要的作用,让安全变得更加智能,但也面临着鲁棒性不足、可解释性差、技术滥用等安全风险。例如,算法漏洞的存在可以攻击图像检索系统,导致非原始图像逃脱检测,威胁网站安全和商业利益。
发展安全可控的人工智能是一项系统工程,需要从行业标准、法律规范、技术发展等多个维度构建其配套的“基础设施”,其中技术基础设施的构建仍将发挥基础性作用。比如,构建基于安全多方计算、联邦学习、隐形查询等技术的数据安全共享平台,解决数据隐私问题,让数据安全共享和流通;构建人工智能系统防火墙,为人脸识别、目标检测、图像分类等系统提供安全检测和防御加固,从根本上提高系统安全性。
在新一轮基础设施浪潮的推动下,人工智能行业即将迎来与传统行业深度融合的机遇期。田说,在安全与控制的核心支撑下
借助安全性和可控性,“深度智能”时代正在加速到来,人工智能在各行业的应用广度和深度将不断拓展。“通过释放‘数据、知识、算法、算力’的新维度,第三代人工智能为实现新一代安全可控的人工智能提供了可能,让人工智能走出‘浅智能’的舒适区,重塑产业价值。”田说: