当前位置:首页  >  政策法规  >  人工智能安全与法治导则发布
政策法规

人工智能安全与法治导则发布

2019/9/16   关键字:   来源:[互联网]
  [中国石化新闻网2019-09-12]8月30日,2019世界人工智能安全高端对话和2019世界人工智能大会法治论坛联合发布《人工智能安全与法治导则(2019)》,这是国内首个人工智能安全发展的导则。《导则》明确,2019年度的重点是算法安全、数据安全、知识产权、社会就业和法律责任五个方面。对人工智能发展的安全风险作出科学预判,提出人工智能安全与法治应对策略,守卫人工智能发展的“安全基因”。
  在算法安全上,《导则》指出了3种风险,包括算法模型存在的技术性缺陷可能导致人工智能系统无法正常运行,算法设计者自身存在价值偏见导致人工智能系统无法正常运行,以及因为算法日趋“黑箱化”可能导致技术失控等问题。《导则》提出,应通过政策和法律引导,开展人工智能算法安全的评估检测;推动技术伦理的算法导入,要求人工智能开发者设计高可解释性的智能系统;同时,加强智能算法的透明监督,人工智能企业、行业应建立相应的算法监管体制,保持与政府监管的协同。
  数据安全则涉及数据隐私、数据保护和数据质量三方面,《导则》强调,要加强数据安全立法和执法,对采集和使用敏感个人数据的人工智能企业/行业须加强法律和行政监管;丰富人工智能技术发展路径,通过政策手段支持基于小数据的人工智能算法技术;并提升人工智能数据资源管理水平,促进公共部门和私营部门数据资源共享和流通。
  对利用人工智能进行创作而产生的知识产权问题,《导则》提出,将加强人工智能算法的专利保护,鼓励人工智能数据开放性保护,并促进人工智能作品的知识产权化。对因人工智能的应用导致社会结构性失业等问题,《导则》从法律层面提出了应对策略,包括出台法律法规,对面临人工智能技术替代的行业和职业进行监管和救助;加快人工智能新兴劳动力培养;加强人工智能时代社会收入分配调整,对遭遇人工智能冲击的传统行业劳动力进行保护和救助,提高社会二次分配的合理性与精准性。
  人工智能的法律主体模糊、人工智能责任的界定复杂,是困扰法律法规介入人工智能进行有效监管的难题。《导则》明确,在当前的弱人工智能时代,人工智能产品本身不具有独立的法律主体资格,人工智能产品的定位是“工具”,人工智能设计者、生产者、运营者、使用者承担法律主体责任,并按照过错程度分担相应法律责任。