|
为人工智能高质量发展和高水平安全提供法治保障,可从以下几个方面着手: 坚持适应性治理理念平衡法治稳定性与技术治理灵活性:人工智能技术加速迭代,治理对象具有高度不确定性。在推动治理法治化过程中,要在法治稳定性与新兴技术治理灵活性之间保持平衡,积极应对人工智能发展带来的全方位挑战。采用灵活监管方式:围绕实现人工智能高质量发展和高水平安全良性互动,坚持适应性治理理念推动人工智能治理法治化,更倾向于采用既有包容性又有激励性的灵活监管。根据技术特性,关注可能的未来发展与功能变化,在确保安全前提下,充分激发经济社会发展的活力和创造性。建立持续动态监管和事后恢复制度:人工智能技术发展不断催生新应用、新场景以及新风险,这些风险在设计和测试阶段可能无法被充分识别和评估。因此,在推动治理法治化过程中,应更加侧重创新优化过程性持续动态监管制度,还应侧重从事前预防转移到最大限度减少损害发生的程度、持续时间并确保事后尽快恢复。 建立和完善具有适应性的人工智能法律制度体系及时响应高质量发展的制度需求:通过立改废释多种方式解决现有制度不适应人工智能技术产业发展的“时间差”“空白区”问题,从资源要素供给、责任合理划分等方面有针对性地构建完善相关法律制度。构建风险防控和责任追究机制:明确人工智能产业链上各主体的法律责任,采取权责相统一原则,确保责任认定明晰。比如在大模型备案和相关评估制度落实的基础上,构建人工智能风险防控和责任追究机制。完善监管与治理体系:针对不同行业的人工智能应用,明确各部门监管职责;也可将人工智能应用按风险等级进行划分,分级分类进行监管。此外,可考虑探索将人工智能技术应用于人工智能监管,提高监管效率。注重与现有法律的衔接:充分考虑既有法律规范体系,注意加强人工智能立法与个人信息保护法、数据安全法、网络安全法等现有法律的衔接,避免冲突和矛盾的产生。 把握发展趋势和规律,制定完善相关规范准则坚持总体国家安全观:将安全发展的理念贯穿人工智能发展全过程各方面,在严守安全红线与底线,把握人工智能发展趋势和规律,充分认识和评估技术产业发展伴生的安全风险基础上,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,在事前、事中和事后全周期确保人工智能安全、可靠、可控。锚定高质量发展目标:推进人工智能治理法治化,要锚定促进人工智能高质量发展目标,牢牢掌握人工智能发展和治理主动权,全面推进人工智能科技创新、产业发展和赋能应用,完善人工智能监管体制机制,正视我国在人工智能基础理论、关键核心技术等方面的差距,努力提升我国在人工智能时代的全球竞争力。
|
|