chatgpt法律应用 探索构建符合中国国情的人工智能治理框架——全国政协“人工智能发展中的科技伦理与法

默认分类1年前 (2023)发布 admin
3,036 0
ChatGPT国内版

■编者按:

任何一项重大科技创新都会促进社会生产力和生产关系的变化,也会影响社会生活方式和伦理秩序的调整。人工智能技术具有广泛渗透性和颠覆性,带来的科技伦理与法律问题更加复杂多元,可能引发潜在伦理和法律风险,需要引起高度重视。12月23日,全国政协召开双周协商座谈会,专门就此问题进行协商议政。现将有关发言摘登如下——

全国政协副主席,民盟中央常务副主席陈晓光作主题发言

全国政协将“人工智能发展中的科技伦理与法律问题”作为双周协商座谈会的主题,紧扣关乎国家发展的前瞻性、战略性问题协商议政,是充分发挥政协人才库、智慧库优势的一次生动实践。

结合参加调研的感受和委员们的发言,我谈以下几点意见。

一、充分认识人工智能科技伦理与法律建设的战略意义

人工智能的健康发展,必须回答人工智能到底该由谁掌控、人工智能发展的基本准则是什么、人工智能发展的禁区在哪里等问题,必须通过建立理性的伦理规则和法律规范为人工智能发展的风险防范设置“控制阀”。

在发展人工智能技术的同时,必须同步开展伦理和法律层面对人工智能的引领和规范工作,改变“先发展后治理”的模式和“重科技研发、轻治理研究”的思维,大力加强人工智能伦理和法律相关问题的研究。

二、构建多元主体共同参与协同合作的治理体系

充分发挥我国国家制度和国家治理体系优势,在国家层面加强顶层设计,统筹多方力量,构建多元主体共同参与、协同合作的人工智能治理体系。通过制定政策和法律,明确政府对人工智能发展的监督管理和规范指导职责,健全人工智能治理的资源统筹、部门协作、信息共享的工作机制,搭建人工智能治理的框架。鼓励行业协会、标准化组织、产业联盟等社会团体,制定人工智能产业标准、技术标准和行业规范,不断加强行业自律。倡导企业率先开展相关研究,制定企业伦理规则、建立内部审查机制,进行自我监管。建立公众参与人工智能治理机制,保障公众的知情权、参与权、表达权、监督权。

积极推动国际社会在人工智能伦理和法律建设中凝聚共识、开展合作。鼓励国内研究机构、智库等利益主体多方参与人工智能治理。与多国多方多边加强人工智能技术、标准等方面的合作、共享,探索人工智能在应对全球性问题方面的应用。

三、构建远近结合的综合规制体系

总的来看,人工智能治理需要在充分发挥技术手段的基础上,注重伦理与制度的结合,逐步形成“技术防范+伦理规范+法律规制”的综合规制体系。

从近期看,应着重加强技术应对和伦理规范。遵循市场规律,坚持应用导向,完善人工智能标准体系,将基础安全,数据、算法和模型安全,技术和系统安全,安全管理和服务等作为人工智能安全与隐私保护技术标准的重要发力方向。

从中长期考虑,全面研究和论证人工智能法律规制体系,制定立法策略。围绕国家和社会层面的数据安全、数据权利等进行立法。在人工智能发展相对成熟的领域,适时开展相关的规范立法。

四、广泛开展人工智能知识宣传教育活动

在全社会,全面、客观、深入宣传人工智能发展将给人类社会带来的根本性变革,促使公众形成对人工智能的科学、理性认识。抓好学校教育,将人工智能知识、计算机思维普及教育纳入国民教育体系,“从娃娃抓起”,培养良好科技伦理素养。抓好劳动技能培训教育,着眼于人工智能时代对劳动者的要求,积极应对人工智能带来的就业替代。

加强对科研人员的科技伦理和法律教育培训,从源头防范人工智能风险。将科研人员职业道德、学术道德规范等相关内容作为上岗前的重要培训内容,在项目申请、管理中,加大对人工智能科技伦理、法律法规的考核比重。强化大学科技伦理教育,建立系统性、多维度科技伦理人才培养体系,设置科技伦理专业方向;将人工智能伦理法律等课程纳入与人工智能开发、运用相关专业的核心课程,完善教学体系。

全国政协委员、社会和法制委员会副主任,公安部原副部长陈智敏作调研情况综述:高度重视人工智能健康发展和风险防范

为做好本次会议筹备工作,今年9-10月,陈晓光副主席、汪永清副主席分别率专题调研组赴安徽、江苏、北京开展4次调研,深入26家企业、科研院所和高校,与企业负责人、一线科研人员、专家学者和相关部门广泛交流。

调研中看到,新一代人工智能正在与实体经济深度融合,广泛应用于社会民生领域,激发创新活力和社会潜能,成为经济发展新引擎。我国人工智能发展势头迅猛,但发展机遇与风险并存,对人类社会发展也可能带来重大风险和潜在威胁。一是数据信息采集应用可能侵犯公民权利,威胁隐私。二是算法偏好可能加剧社会偏见或歧视,威胁公平。三是机器深度学习难以理解人性和道德,无人驾驶汽车紧急避险等智能决策可能危及特定人群生命,威胁安全。四是人机交互式产品广泛应用带来的工作生活高度依赖,对人类情感体验、家庭社会关系等带来了一定冲击,可能影响未来社会塑造,威胁伦理。

当前,人工智能发展的科技伦理与法律问题研究已经在实践中逐步探索和实施。2017年,国务院发布《新一代人工智能发展规划》,提出了人工智能治理体系建设的时间表和路线图。但总体来看,已经开展的研究和探索基本上还处于自发和分散状态,缺乏规划和统筹,难以形成合力;社会各方面对伦理和法律促进和保障人工智能健康发展的基础性作用,重视不够、认识不足;科技研发和应用中的风险意识、规则意识不强,“科技向善”的融合度、共识度和实践性都有待提高。建议:

一、从国家发展战略高度制定人工智能发展规划,引导人工智能发展与国家创新驱动发展战略相衔接,特别是高端制造业。重视人工智能红利形成的“数字鸿沟”“贫富鸿沟”等社会财富分配问题、人工智能发展引发的就业问题等科技伦理和法律问题研究,构建多部门协同、多学科融合、多元主体参与的风险治理和规则治理研究框架和工作体系。

二、弘扬“科技向善”理念,在科研人员中树立扬善避恶、造福人类的道德准则,明确道德底线。针对深度伪造技术可能引发政治风险、个人信息被窃取倒卖引发刑事犯罪、“数据投毒”导致人工智能系统误判等问题,建立数据安全保障、算法安全审查等制度,为人工智能发展形成正确价值导向和稳定社会预期提供有力保障。

三、立足先发优势,积极参与和引领人工智能治理国际规则制定,为构建适应人类命运共同体安全发展需要的人工智能全球治理新规则新秩序新格局,贡献中国智慧和中国方案。

全国政协常委,湖南省政协副主席,九三学社中央常委、湖南省委会主委张大方:警惕人工智能发展所带来的社会公平问题

人工智能主要以大数据和深度学习为基础,从理论上来说,客观的数据和理性的算法没有情绪也没有偏好,不会带来偏见。但是,往往数据的缺失、数据的质量、算法的歧视和人工的变化,会导致一些偏见出现。也许,人类真正优越于人工智能的,不是更强大的逻辑运算能力或创造力,而是崇高的道德感和同情心。

面对人工智能发展所带来的潜在与现实的社会公平问题,我个人的思考与建议是:

chatgpt法律应用 探索构建符合中国国情的人工智能治理框架——全国政协“人工智能发展中的科技伦理与法

一、“上限”不能过。人工智能发展应该公平地服务于人类的公共利益,而不应该侵害甚至颠覆人类社会的公平与正义。人工智能应该被合乎伦理的设计开发与利用,一切有悖于科学伦理、加剧社会不平等、拉大贫富差距的技术研发,应该受到限制。

二、“底线”不能破。应致力于帮助每个人做好应对的准备,包括帮助学生应对未来的职业挑战,帮助劳动者应对不断变化的行业形势,以及建立相关制度以帮助劳动者和就业机会进行匹配。应大力推广计算思维普及教育,让每一个人都能成为人工智能的理解者与受益者;大力推动各行业数字化转型,让每一家公司都能成为人工智能的使用者与创造者。

三、“红线”不能踩。必须加强政府引导、行业自律、企业自觉及公民共识的氛围营造,从设计研发之始,就要在技术标准化上加以规范,下大力气培养一线从业人员遵从科学道德伦理,自觉规避好奇与邪恶,并从中获得职业释怀的幸福感,从而使人工智能在政策、法律和规范的指导下更具效能。

全国政协常委,湖南省政协副主席,九三学社中央常委、湖南省委会主委张大方:警惕人工智能发展所带来的社会公平问题

人工智能主要以大数据和深度学习为基础,从理论上来说,客观的数据和理性的算法没有情绪也没有偏好,不会带来偏见。但是,往往数据的缺失、数据的质量、算法的歧视和人工的变化,会导致一些偏见出现。也许,人类真正优越于人工智能的,不是更强大的逻辑运算能力或创造力,而是崇高的道德感和同情心。

面对人工智能发展所带来的潜在与现实的社会公平问题,我个人的思考与建议是:

一、“上限”不能过。人工智能发展应该公平地服务于人类的公共利益,而不应该侵害甚至颠覆人类社会的公平与正义。人工智能应该被合乎伦理的设计开发与利用,一切有悖于科学伦理、加剧社会不平等、拉大贫富差距的技术研发,应该受到限制。

二、“底线”不能破。应致力于帮助每个人做好应对的准备,包括帮助学生应对未来的职业挑战,帮助劳动者应对不断变化的行业形势,以及建立相关制度以帮助劳动者和就业机会进行匹配。应大力推广计算思维普及教育,让每一个人都能成为人工智能的理解者与受益者;大力推动各行业数字化转型,让每一家公司都能成为人工智能的使用者与创造者。

三、“红线”不能踩。必须加强政府引导、行业自律、企业自觉及公民共识的氛围营造,从设计研发之始,就要在技术标准化上加以规范,下大力气培养一线从业人员遵从科学道德伦理,自觉规避好奇与邪恶,并从中获得职业释怀的幸福感,从而使人工智能在政策、法律和规范的指导下更具效能。

全国政协委员,北京搜狗科技发展有限公司首席执行官王小川:以未来之眼光看待人工智能

人工智能是引领新一轮科技革命和产业变革的战略性技术,这要求我们跳出今天的思维定式,以未来的眼光看待人工智能。

我想先区分开大数据和人工智能。算法、算力和数据是人工智能的三大驱动力。今天的人工智能是建立在数据智能基础上,数据对人工智能的发展更容易产生作用,但是数据本身涉及个人信息保护等问题,现在已经引起了人们的高度重视。我先抛开大数据不谈,谈人工智能,集中谈算法。

算法在短期内能实现如人们期待的突破吗?当前算法已经取得了一定突破,但短期看突破还不够。长期看,算法能不能实现预期中的突破是不可预测的一件事,需要长时间的思考和科研。因此,我们应该有规划、有规模地开展人工智能技术普及工作,分层次地推进全社会人工智能普及教育。

人工智能是一个未来命题,教育同样也是,需要长远布局。立足当下,我们看到的是人工智能对就业带来影响。越来越多简单的重复性劳动,逐步被人工智能取代,后者甚至达到人类难以企及的速度和精准度。而长远地看,尚没有充分研究成果显示人工智能可以替代人完成创造性的劳动。我们更需要关注如何在教育中鼓励创造,改革那些交给机器做可以更高效、更精准的工作。通过转变教育方式、推动学科改革,实现对人才培养方向的引导,以优化的人才结构适应未来的需要。

以未来的眼光看待人工智能,还意味着要更多关注取舍两难的问题。取舍两难的问题,不是直观的恶与善,他们会伴随人工智能与社会经济发展的深度融合,以穿透科学与人文的复杂方式呈现出来。从社会治理的角度看,这些更需要我们提前去思考和关注。

全国政协委员,九三学社重庆市委会副主委,重庆医科大学校长黄爱龙:加强人工智能应用中的个人隐私保护

人工智能需要大量个人数据支撑,其中很多是个人隐私。隐私信息一旦泄露,可能对消费者人身、财产安全及企业、公共利益造成严重威胁。加强隐私保护,不但是人工智能开发、应用中的伦理道德底线,还是保障公民依法享有《宪法》《民法典》等所规定的人格权、隐私权的重要体现。

从2020国家网络安全宣传周“App个人信息保护”发布活动上了解到,工业和信息化部联合相关单位连续两年开展App违法违规收集使用个人信息专项治理。2020年累计巡查4.8万余款App,专项检查了200余款App,依法处置了7000余款存在违法违规行为的App。可见,问题App占比很大。各部门下了很大力气,制定技术规范、建立举报平台、督促问题整改,取得了很好的效果。

App安全认证制度是一项很好的措施。但目前认证的App数量较少,需要进一步推广,提升实施效果。希望监管部门持续开展治理工作,进一步扩大工作范围,加大处罚力度,提高违法违规成本,对违法违规行为形成有力震慑。加强对举报平台的宣传推广,鼓励公众积极参与提供问题线索,完善公众权益救济渠道,形成全民监督的良好社会氛围。在《App违法违规收集使用个人信息行为认定方法》统一标尺的基础上,针对金融、安防、医疗、教育等重点领域,出台有针对性的细化办法。

另外,我建议隐私信息采集应区分“战时”和“平时”,并坚持“最小够用”原则,比如,“健康码”采集的信息,疫情过后再使用的话,要有相关规定;“行程码”显示的行程信息,建议由逐一列出手机使用者去过的地区,调整为只列出去过的中高风险地区。

同时,建议构建“制度+科技”治理机制,政府、司法、行业、企业等多方协同治理,在推进人工智能应用的同时有效保护隐私。

全国政协委员,上海众人网络安全技术有限公司董事长谈剑锋:支持人工智能发展 数据管控需先行

一旦个人隐私数据泄露,就是重大的社会事件,不仅会危及老百姓的财产和生命安全,而且会影响社会稳定。更进一步来看,随着人工智能数据收集、分析以及信息生成技术的不断发展,很多东西可以被仿造,信息仿造不仅会侵蚀社会的诚信体系,还可能会给国家的政治安全、经济安全和社会稳定带来巨大的负面影响。

在海量大数据中,尤其需要关注的是不可再生性数据,比如人脸、指纹、DNA等生物特征数据,以及个人医疗档案数据等。这些数据具有唯一性,是无法更改的,一旦被采集到不安全的网络上,极有可能带来灾难性后果。

人工智能技术的发展是趋势,应该予以支持。但针对个人生物特征、医疗数据等唯一性、不可再生性的重要数据,必须提前设防。生物识别技术应当成为“最后的救济手段”,在使用规范上要有更加严格的要求,防范各类风险。建议采用负面清单制,明确禁止具有唯一特征的不可再生性数据在互联网上的应用,切断风险源头。

我还有一点思考,建议国家设立“数据银行”,成立专门机构来统一管控、存储和应用不可再生性大数据,从而限制企业自行采集收集和垄断,并运用区块链技术分布式存储,运用密码技术严格保护数据。

作为一名数据安全领域的工作者,我认为必须严控大数据的使用场景。科技需要从0到1的创造,而不是滥用场景式的所谓“创新”。要对互联网企业的信息采集进行严格的管理规定,只可针对企业产品的特性进行相关必要的数据采集,不得过度、无序、随意地采集,并出台相关条例,明确规范由谁来采集、如何采集等相关安全技术规范和流程标准,采取严格的安全防范措施。

全国政协委员,最高人民法院副院长姜伟:尽快出台数据权利保护类法律

chatgpt法律应用 探索构建符合中国国情的人工智能治理框架——全国政协“人工智能发展中的科技伦理与法

我们在调研中发现,因数据的权属不明确,有三个问题困扰着有关企业:一是创新难,数据企业之间爬取数据、滥用数据的现象普遍存在。二是交易难,因数据价值缺乏统一评估标准,需要逐一谈判,数据交易成本高。三是维权难,数据平台遭到侵权的问题时有发生。

建议尽快出台数据权利保护类法律,主要有以下几点考虑:

一、数字经济需要法律保障。在信息化时代,迫切需要建立一个安全、有序的数据流通环境。明确数据产权,就是建立一套公平合理的法律规则,规范数据的权属、使用、交易、共享机制,激发市场主体的积极性和创造性,促进数据开放、流动、共享。

二、数据属性需要制度创新。数据形态与现有法律客体的形态和性质均有不同,其权利主体是多元的,权利内容是多维的,涉及个人信息、企业利益、政府资源、数据主权、国家安全等多重维度,无法将数据所有权绝对化,不能简单地套用传统的物权规范。需要根据数据的属性特点建立数据产权制度,破解“个人数据与企业产权”的矛盾、平衡“数据安全与数据利用”的冲突,对各种类型数据合理确权,解决数据属谁所有、数据如何使用、数据收益归谁等问题。

三、司法实践需要法律依据。民法典总则编第127条规定:“法律对数据、网络虚拟财产的保护有规定的,依照其规定。”表明法律保护数据权利的鲜明态度,关键是现有法律规范不健全,后续立法应细化数据权利保护规则,落实这个原则性规定,为司法裁判提供依据。

全国政协委员,香港中文大学工程学院副院长,香港计算机教育学会荣誉会长黄锦辉(视频连线):加强对可解释权的立法

人工智能的任务是仿效人类的行为,并以机器代人为终极目标。医疗及教学是常见的人工智能应用,但不少现有的系统都未能为决定作出合理解释,使用户质疑其效能。比如在没有病征的情况下被确诊为肺炎,但医生没有解释;比如一名学生很努力地写了论文,老师却评为不及格又没有说出理由根据。遇到上述场景,当事人必然感到无奈,从而对医生及老师失去信任。而在这些医疗及教学的人工智能应用背后,所使用的大数据分析算法,都会用到深度学习。

深度学习是制造人工智能系统的关键技术。它利用神经网络算法对输入数据进行表征分析及学习,从而构建出一个对应的信息处理模型。神经网络是一套端对端的学习运算方法,换言之,当操作者输入了数据,网络便会自动学习,找出最佳结果作为输出。尽管如此,它的自动学习算法以黑箱式作业,并不透明,剥夺了数据拥有者的权利。欧盟于2016年推出的《一般数据保护规范》当中,可解释权是一项重要法规。理论上,可解释权是对算法(例如深度学习)输出进行解释的权利。

提两个建议:一是建议国家在人工智能方面加强对可解释权的立法。二是建议国家有关部门邀请香港代表一起,参与联合国在人工智能伦理和治理方面的国际标准制定工作。

全国政协委员,北京市通州区人民法院副院长、民事审判一庭庭长李迎新:为人工智能把好“运行控制关”

如果将“人工智能产业”比作高速行驶的汽车,那么在努力踩好“油门”不断加速的同时,更应提高风险防控意识,把好运行控制关,确保人工智能产业发展始终在造福人民正轨上行驶。

作为一名法律人,我对人工智能系统致人损害时引发的侵权责任问题,谈一点思考。人工智能基于神经网络的深度学习,具备自我学习和进化的能力,拥有不断迭代的自主性。以无人驾驶汽车为例,假设车辆在无人驾驶中发生事故致人伤害,那么事故原因究竟是无人车的生产设计者过错导致的产品瑕疵或缺陷?还是无人汽车使用者自身操作不当?又或者是人工智能系统超越原控制方案通过自主学习而引发的“自身危险行为”?从法律思维角度,应当明确分析原因,界定责任主体。对于人工智能存在的无法归责于生产设计者也不宜归责于使用人的侵权责任,或可考虑设立类似于交强险的“人工智能责任险”,以便及时对被侵权人提供救济,同时分担生产设计者的创新风险。实践中广泛存在的其他人工智能产品可能带来的侵权损害,可以参照上述责任分配机制。请教司法部的领导同志可否借鉴道交中的交强险做法,设置人工智能责任险?

再就人工智能可能带来的“数字鸿沟”“发展鸿沟”谈一点思考。数据是人工智能不断进化的“燃料”。目前主流观点表明,数据集合会产生市场价值倍增。巨型网络交易平台作为原始数据的搬运者和收集者,通过多种渠道获取原始数据,汇总后加工并最终获得价值密度极高的“大数据”,进而以“精准营销”等方式,获取商业利润。就此类因数据产生的利润分配机制是否公平?是否可能导致收入差距进一步加大?目前多国已经针对大型互联网企业及电商交易平台开征或正考虑开征数字税。想请教发改委和工信部的领导同志,如果时机成熟,是否对巨型互联网企业相关互联网业务产生的利润征收适当“数字税”?

全国政协常委,民盟中央副主席、上海市委会主委,上海市副市长陈群:加快构建人工智能健康发展治理体系

随着人工智能赋能百业态势的不断发展,隐私保护、安全可控、公平公正等法律伦理问题逐渐成为社会关注焦点和影响人工智能产业可持续发展的关键。结合上海的探索实践,提三点建议。

一是加快构建促进人工智能健康发展的良好生态。上海近年来探索表明,要推动人工智能健康发展,除了加大科研投入、推动人才集聚、丰富应用场景和政策供给外,还需要着力构建良好的发展生态,目前上海正积极建设人工智能综合性研究机构,打造人工智能算法评测和交易平台,建设面向人工智能主流技术的算法评测标准体系和通用算法库,开展算法知识产权保护;推动制定人工智能应用的企业标准、行业标准和地方标准;加快制定医疗、交通等重点领域人工智能产品和服务责任认定条例,开展人工智能产业发展监管、人工智能数据安全等立法调研。

二是加快构建以人为本的人工智能治理体系。下阶段,人工智能将进一步深入社会生活,需要政府在坚持包容审慎原则的同时,更加积极作为。建议在国家层面搭建人工智能治理框架,设立专业管理机构,加强风险和挑战研判,推动全国性治理原则制定,并探索出台相关法律法规。

三是发声人工智能全球治理。在国家层面加快相关制度创新,布局建设人工智能认证体系和全球赋码系统。同时进一步加强人工智能国际对话合作。

全国政协委员,民盟北京市委会副主委,中科院理化技术研究所副所长汪鹏飞:加强科技伦理宣传教育

先进科技在推动人类社会迅速发展同时,也带来科技重大伦理风险。特别是近年来生物医学科技、人工智能技术的快速发展与普及已引发广泛的伦理与风险问题。就加强人工智能科技伦理风险意识的宣传方面提三点建议。

一、加强宣传力度,提高全社会对科技风险的敏感性以及对科技风险的认知水平和能力。首先强化对教师及科研人员的宣传教育。将教师与科研人员职业道德、学术道德规范等相关内容作为上岗前的重要培训内容,在项目申请、管理中,承担单位应加强宣传教育与培训,提高科研人员在科技伦理、科技安全等方面的责任感与法律意识。强化国家科技伦理方面的法律法规在高校、科研院所及企业等单位的宣传与推广,建立相关宣传体系,推动科技伦理科普宣传,将科技伦理纳入公民科学素质建设中。

二、强化对高校学生的科技伦理教育。建立系统性、多维度科技伦理人才培养体系,强化专业化、多元化人才培养;探索完善科技伦理课程内容设置、教学方法创新,如:将科技伦理法规规范、伦理哲学道德、生物与临床医学伦理、人工智能工程伦理等相关学科课程纳入高校教育核心课程。

三、加强对党政领导干部的人工智能伦理风险教育培训。领导干部需要对人工智能这一科技伦理方面发展的风险有较科学理性的看法,从发展角度辩证、客观地看待发展中存在的问题。

清华大学法学院院长申卫星:关于对人工智能进行多重规制的建议

人工智能是一把双刃剑,深刻改变人类社会生活、改变世界的同时,其发展的不确定性也给个人隐私、经济安全和社会稳定乃至全球治理带来前所未有的新挑战。

针对人工智能技术发展中的风险,应落实以人民为中心的发展思想,在大力发展人工智能的同时,高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险、化解风险,从技术、伦理和法律三个路径共同构建符合人工智能运作基本逻辑的规制体系,确保人工智能安全、可控发展。建议:

一、通过技术手段防范人工智能带来的风险和损害。遵循市场规律,坚持应用导向,完善人工智能标准体系,将基础安全,数据、算法和模型安全,技术和系统安全,安全管理和服务等作为人工智能安全与隐私保护技术标准的重要发力方向。

二、制定促进人工智能发展的伦理规范。伦理准则是保障个人智能安全可靠可控发展的重要措施,要加强人工智能相关伦理和社会问题研究,建立保障人工智能健康发展的伦理道德框架。开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架。制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案。

三、构建综合性立法和具体场景立法相结合的“总-分”式立法体系。综合性立法是进行人工智能顶层设计的最佳形式,通过专门的中央立法可以强有力地指导各地、各领域的人工智能发展。具体场景分别立法的领域包括自动驾驶、自动化决策、精准医疗等,区分不同行业和场景对人工智能技术进行规范。“总-分”的立法体系设计将有利于增强国内外对于中国人工智能技术的信任度,提升人工智能国际竞争中的软实力。为保障立法的科学性,可以分别构建高级别的人工智能发展协调机构和安全治理机构,共同牵头立法组织工作,按照分别起草、逐个审议、汇编成法的思路开展立法工作。同时积极参与人工智能全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,共同应对全球性挑战。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...