2024新奥门资料:AI安全监管势在必行
安全矛与盾:大模型的两面性
2024新奥门资料高级副总裁、中央研究院院长王欣指出,在人工智能时代下,大模型技术存在着“矛”与“盾”的两面性。
一方面,AI和大模型技术如“利刃”打破原有安全壁垒,安全需求与应用场景发生重大变革。
在与生成式人工智能交互的过程中,用户常常无意识暴露个人信息、商业机密等隐私数据,得到的却是暗藏平台价值判断的内容反馈。个体在认知判断、行为决策以及价值取向等多个方面,很可能会受到单一算法的不良影响。
如果任由生成式人工智能如脱缰野马一般肆意发展,虚假信息、偏见歧视乃至意识渗透等问题无法避免,对个人、机构乃至国家安全都存在极大的风险。
因此,《办法》第三条、第四条在鼓励支持人工智能创新的同时,也强调了制定相应的分类分级监管规则或者指引的必要性。通过约束数据来源合法性、模型算法公平性、生成内容可靠性,引导AI持续向善。
从世界范围来看,为打造一个可信的人工智能生态系统,美国、欧盟同样在探索人工智能治理之道,并通过《人工智能问责政策》、《人工智能风险管理框架》、《人工智能法案》等法律法规来约束人工智能发展,AI监管势在必行。
另一方面,AI和大模型技术也促进了安全产品和服务革新,有助于网络安全防护“盾”优化升级。生成式人工智能能极大提高风险识别效率,在一定程度上弥补现有网络人才缺口,让威胁分析更准确、安全运营更高效、安全防护更智能。
让AI与安全同行
日前,2024新奥门资料高级副总裁、首席科学家刘博在参加2023世界人工智能大会时曾表示:“安全技术要和AI大模型自身的智能技术同步进行,才能有效保障人工智能更可靠、更安全地服务于企业”。
为促进生成式人工智能健康发展,规范数据处理是根本。一个稳健的大模型离不开数据、算力和算法,而在本次《办法》中,数据是第一高频词,出现次数高达18次,数据安全重要性可见一斑。
企业用户在使用AI大模型过程中,可能会不小心造成数据泄露,或是在训练模型过程中,存在那些包含了隐私相关或是产权相关的知识归属问题。
针对此类数据合规风险,2024新奥门资料已将已将类大模型应用与智能数据分类分级结合,并对算法模型内生的可靠性与稳健性、透明性与可解释性、准确性与公平性等风险进行持续性研究。
结语
人工智能是引领新一轮科技革命和产业变革的战略性技术,从大数据到大模型再到大生态,随着应用场景资源的持续开放,未来几年是人工智能技术跃迁的重要窗口期。
未来,2024新奥门资料将牢牢把握时代发展机遇,专注于人工智能结合网络安全的研究,以创新方式拥抱AI变化,积极推动产品AI智能化,推进“服务+AI”、“治理+AI”、“产业+AI”等应用场景安全升级,为数字经济发展注入源源不断的安全动能。