我们非常重视您的个人隐私,当您访问我们的网站时,请同意使用的所有cookie。有关个人数据处理的更多信息可访问《隐私条款》

人形机器人全球监管前沿——中国路径与国际协同

发布时间 2025.11.24 作者 夏蔚丰

I. 人形机器人的定义与特征


A. 定义界定




人形机器人是人工智能、物联网和机器人技术深度融合的产物。目前,在法律与工业领域尚未形成统一且被广泛采纳的明确定义。在国家市场监督管理总局、国家标准化管理委员会于2025年2月28日发布的GB/T 12643-2025《机器人词汇》中,仿人机器人被定义为“具有躯干、头和四肢,外观和动作与人类相似的机器人”。仿人机器人的定义侧重于外观层面,而未涵盖智能相关的内容。实际上,人形机器人的关键技术应包含本体能力、运动能力、智能能力等多个方面,其能力突破依赖于具身智能的发展。具身智能是人工智能、机器人学、认知科学的交叉领域,主要研究如何使机器人具备类似人类的感知、认知、决策和行为能力。因此,结合技术特征和应用实践,可以提出人形机器人的定义:具有类似于人的躯干、头部、四肢和关节,外观和动作与人类相似,基于通用具身智能来实现感知、认知、决策、执行等能力的机器人。


在明确人形机器人定义的基础上,还需将其与其他类型的机器人进行区分。具有部分类似于人的外观或能够实现感知、认知、决策、执行中部分能力的机器人可以归类为“泛人形机器人”,而其他不具备类似人的外观,基于特定任务需求设计的机器人则可统称为“非人形机器人”。

B. 显著特征




相较于非人形机器人,人形机器人展现出四项显著特征。首先,在外观与结构上,人形机器人拥有与人类相似的形象,包含四肢、躯干及头部等部分,这样的设计使得人形机器人不仅在视觉上易于被人类所接纳,而且在进行人机交互时亦显得更为自然。其次,在移动方式上,人形机器人多采用双腿行走,这与人类的行走模式相仿,使其在适应多样地形及环境条件时展现出更高的灵活性。再次,在交互能力方面,得益于类人的外观与行为,人形机器人能够通过面部表情、手势和语言与人类进行多模态沟通,从而更精准地理解人类意图并执行指令,展现出更强的交互能力。最后,在应用场景上,人形机器人在医疗、教育、家庭服务娱乐等与人类日常生活紧密关联的领域承担着类人角色功能,而非人形机器人则可能更多地应用于工业生产和物流运输等特殊场景。


II. 中国的监管策略


A. 国家战略定位与地方政策协同





1. 顶层战略布局


在顶层战略布局方面,中国已从宏观指引、技术路径与产业支撑等多个维度,系统地构建起人形机器人发展的政策框架。自2023年起,国家层面密集出台多项指导文件,逐步明确人形机器人在未来产业体系中的战略定位与发展路径。


2023年10月,中国工业和信息化部(以下简称“工信部”)颁布印发了《人形机器人创新发展指导意见》(以下简称“《指导意见》”),明确提出到2025年,人形机器人创新体系初步建立,“大脑、小脑、肢体”等一批关键技术取得突破,确保核心部组件安全有效供给;到2027年,人形机器人技术创新能力显著提升,形成安全可靠的产业链供应链体系,构建具有国际竞争力的产业生态,综合实力达到世界先进水平。同时《指导意见》指出,人形机器人有望继计算机、智能手机和新能源汽车之后,成为又一深刻改变人类生产与生活方式的颠覆性产品,并将重塑全球产业的发展格局。


2024年1月,工信部等七部门联合印发《关于推动未来产业创新发展的实施意见》,进一步将人形机器人列为十大创新标志性产品,推动其在智能制造、特殊环境作业、家庭服务等场景的落地应用,为地方政策制定提供统一纲领。


2025年《政府工作报告》中首次写入了“具身智能”这一概念,标志着国家对这一新兴领域的坚定支持和高规格定位。作为能够通过外在身体形态及内嵌算法与环境交互执行任务的智能应用,具身智能在人形机器人中得到了集中体现。


2025年9月,工信部等六部门联合发布《机械行业稳增长工作方案(2025—2026年)》,旨在推动机械行业稳定增长。该方案提出到2026年实现机械行业营收突破10万亿元,年均增速达到3.5%左右。其中,机器人领域聚焦三大方向:工业母机与智能检测装备、民生需求导向的医疗与农业机器人、未来产业攻关的高端智能机器人(如人形机器人)。方案通过设备更新补贴、首套推广等机制,推动机器人在新能源汽车、电子信息等领域规模化应用,长期则旨在培育新质生产力,推动中国机器人产业向高端化、国际化发展,支撑制造强国战略。


2. 标准体系支撑


在标准体系支撑方面,中国正加快构建覆盖基础共性、关键技术到行业应用的全链条标准框架,为人形机器人产业化与规范化发展奠定基础。标准作为技术协同与产业协作的桥梁,对确保产品安全性、兼容性和可靠性具有关键作用。


工信部、国家标准化管理委员会于2025年4月联合印发《国家智能制造标准体系建设指南(2024版)》(以下简称“《指南》”)。2024版《指南》在前三版基础上,优化了标准体系框架和标准布局,提出到2026年制修订100项以上国家标准与行业标准的目标,进一步聚焦人工智能等新技术与制造业的融合应用,新增了工业软件、智能装备、制造模式等标准方向,以及轻工、化工等细分行业标准体系建设内容。该《指南》强化了对智能装备的标准化布局,通过明确基础共性、关键技术及行业应用的标准逻辑,为人形机器人的专项标准制定提供了上位架构支撑。


2025年4月,在工信部指导下,中国电子学会依托中国人形机器人百人会,组织120余家机器人企业、科研院所、高校,共同编制了《人形机器人标准体系框架(V1.0版)》。该框架涵盖基础共性、关键技术、部组件、整机与系统、应用五部分标准体系,全面覆盖人形机器人“感知-决策-执行”技术链及核心产品领域。《人形机器人标准体系框架(V1.0版)》及相关产业标准的发布,不仅通过统一基础术语、技术要求和测试方法等方式规范技术路径,避免企业“重复造轮子”,同时明确产业技术缺口,引导资本、人才向关键领域倾斜,形成创新资源规模效应,将加速推动人形机器人的产业化进程和应用场景落地。


3. 地方政策协同


在国家顶层战略指引下,各地结合产业基础形成协同发展格局,既聚焦人形机器人的核心技术攻关与场景落地,也探索适配本地的监管规范与准入机制,构建起“国家统筹、区域互补”的地方政策协同。


广东省以核心技术突破与资金赋能为重点,其《广东省推动人工智能与机器人产业创新发展若干政策措施》明确对国家级制造业创新中心给予最高5000万元支持,鼓励企业联合攻关伺服电机、传感器等关键零部件;通过设立产业基金引导社会资本投向“硬科技”领域,并对主导制定国际标准的企业给予最高50万元资助。深圳市作为产业集聚核心,进一步推动具身智能机器人在软硬件接口、安全伦理等领域的标准制定,建设测试评价平台与国家级检测认证机构,为行业准入奠定基础。


上海市聚焦产业规模化与技术迭代,《促进智能机器人产业高质量创新发展行动方案(2023-2025年)》提出2025年形成千亿级产业规模、工业机器人密度达500台/万人的目标,通过“大模型+具身智能”技术提升机器人环境适应能力,探索RaaS(Result as a Service,结果即服务)商业模式降低应用门槛。《上海市具身智能产业发展实施方案》则明确到2027年推动百条应用场景落地,强化产业集聚效应。2025年10月发布的《智能终端产业高质量发展行动方案(2026-2027年)》进一步支持人形机器人量产及端侧芯片、灵巧手等核心部件产业化。


北京市侧重细分领域突破与成果转化,其《机器人产业创新发展行动方案(2025-2027年)》聚焦医疗、特种、服务机器人三大赛道,对手术机器人、康复机器人等给予专项补贴,鼓励高校与企业联合建立机器人中试基地,通过科研竞赛平台推动技术落地与区域协同。


此外,合肥、成都、苏州等地均将人形机器人纳入战略性先导产业,通过完善产业链配套、建设专用训练场、开放城市应用场景等方式,形成全国范围内的产业协同合力。


B. 现行法律生态:分散规制与重点治理





1. 法律分散规制


目前,我国尚未出台统一、专门的人形机器人或人工智能立法,相关的规则仍分散在信息安全、隐私保护等现有法律及近年来发布的一系列政策文件中。《民法典》《个人信息保护法》《数据安全法》等基础性法律为人形机器人的个人信息处理、数据安全保护提供原则性指引,例如,《个人信息保护法》要求处理敏感个人信息需取得个人的单独同意,适用于人形机器人通过视觉、语音传感器采集用户生物信息的场景。


2023年8月15日施行的《生成式人工智能服务管理暂行办法》对目前人形机器人的应用具有直接约束力,它明确了用户享有个人信息的查阅、复制、更正、补充和删除权利,禁止义务人利用算法在交易价格等交易条件上对消费者实施不合理差别待遇。此外,深度合成算法的备案要求也对人形机器人制造商施加了特定的合规和透明度义务。


2025年10月,杭州市政府常务会议审议通过《杭州市促进具身智能机器人产业发展条例(草案)》,下一步拟提交杭州市人大常委会审议,这将是全国首部针对具身智能机器人产业的地方性法规。该条例草案系统构建了促进产业发展的整体框架,包括技术创新支持、基础设施共享、场景开放和“包容审慎、安全可控”的监管原则。这项开创性的立法,不仅为杭州抢占具身智能机器人发展先机提供法治保障,更是一次“先行先试”。其探索形成的“杭州经验”,将为中国未来相关产业发展和政策创新提供有益借鉴。同时,这种地方立法实验为国家层面立法积累了宝贵经验。


2. 算法与数据治理


针对人形机器人“强算法+高算力+大数据”的技术特征,现行法律规范以《个人信息保护法》《数据安全法》为上位依据,聚焦算法安全与数据合规两大核心问题。


在算法治理方面,我国在一些领域初步规定了算法影响评估,例如《互联网信息服务算法推荐管理规定》第27条要求“具有舆论属性或者社会动员能力的算法推荐服务提供者应当按照国家有关规定开展安全评估”,第28条要求“有关部门对算法推荐服务依法开展安全评估和监督检查工作”。《生成式人工智能服务管理暂行办法》第17条规定,“提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估”。鉴于人形机器人通过强算法与人类进行深入交互,后续应建立健全人形机器人算法影响评估制度。


在数据治理方面,我国目前存在一些数据认证制度。《关于促进机器人产业健康发展的通知》要求建立认证采信制度,“以国家机器人检测与评定中心、机器人检测认证联盟等为支撑,开展机器人检测认证”。《人形机器人创新发展指导意见》要求“打造权威检验检测机构,完善评测配套工具,满足企业和用户的检测认证需求。”我国当前对机器人的认证包括CR认证、CE认证、UL认证、FCC认证、CQC认证等类型,但针对人形机器人数据安全的专项认证仍在发展中。已于2025年11月1日起实施的国标进一步细化了数据安全的实操要求:GB/T45574—2025明确敏感个人信息识别与处理规范,为机器人数据合规提供直接依据;GB/T45652、45674两项国标则规范生成式AI训练数据的来源合法性与标注安全性,适配“AI大模型+机器人”融合场景的合规需求。


3. 分级分类监管


《人形机器人创新发展指导意见》要求“开展人形机器人标准化路线图研究,全面梳理产业链标准化需求,建立健全人形机器人产业标准体系,分级分类推动标准制定”。人形机器人种类多元,应用场景多样,存在的风险类型和大小存在很大的差异。如果“一刀切”地制定统一的标准,表面上看好像实现了平等,但实际上造成了实质不平等,最终不利于中小微人工智能企业的发展。而且,由于不区分风险类型和大小,粗放式监管无法合理分配有限的监管资源,从而难以有效保障总体安全。


C. 未来立法趋势与制度完善方向





人形机器人作为人工智能、物联网与机器人技术深度融合的颠覆性产品,其技术迭代速度与应用场景变化远超传统产业,对现有法律监管体系的责任分配、安全合规与伦理治理、保险与行政处罚机制等核心议题提出挑战。未来立法需以问题为导向、以具体场景为依托,构建覆盖全链条的法律规制体系,既要破解技术发展带来的法律空白与冲突,又要避免过度监管抑制产业创新活力,最终实现科技发展与法治保障的动态平衡。


1. 安全合规与伦理治理



合格评定机制:构建合格评定机制已成为当前破解安全合规风险的核心路径,依托覆盖人形机器人研发、生产与应用全链条的标准体系,构建人形机器人产业合格评定机制,需整合认证、检测和审查等核心内容。认证要结合现有标准体系,对整机及核心部件性能的可靠性、算法安全性与稳定性等方面开展第三方认证。检测需覆盖全生命周期,研发阶段做风险预判测试,生产中强化质量抽检,退役后核查环保处置合规性。同时,需依据现行政策文件要求将其纳入科技伦理审查,通过隐私保护检测、自主决策逻辑验证等手段防控伦理风险,由权威机构对评定机构进行认可,确保结果公信力;面向人形机器人产业生态,多维度形成风险防控闭环,为不同场景应用提供分层风险防控体系,保障产业规范发展。


伦理规范落地:依据《科技伦理审查办法》《新一代人工智能伦理规范》,制定场景化伦理标准与量化指标。例如,教育机器人的情感诱导强度不得超过每日30分钟,禁止通过算法设计强化未成年人依赖;医疗人形机器人需设置“人类决策优先”触发机制,手术场景下算法仅可提供辅助建议,最终决策权归属于医务人员。伦理规范的落地应着眼于算法正义完善算法伦理规范,关注算法的商业道德导向,以公平、安全、透明、非歧视的伦理价值观指引算法应用,建构规范化的算法伦理审查制度。设立人本面向的人工智能伦理治理组织机构,完善伦理风险的预警机制,设置人工智能伦理治理的风险预警阈值,严格追究引发伦理危机相关主体的伦理责任。总之,伦理规范应成为预防人形机器人安全风险的重要准则,应将伦理规范融入人形机器人研发和应用的全生命周期,不断强调其实质性指引作用,避免成为空洞的表达。


安全风险评估:在人形机器人的发展过程中,应通过科学合理的方法评估风险的大小,然后采取相应的风险管理措施。风险等级越高,采取的风险管理措施就应当越严格。对于人形机器人的风险评估结果,可以分为无风险、低风险、中风险、高风险、不可接受风险五个等级。如果经评估后发现某类人形机器人将导致不可接受风险,就应当禁止研发此类人形机器人。对于人形机器人的安全风险评估,至少应涉及算法影响评估、个人信息保护影响评估等类型。算法影响评估是指对智能系统的算法进行全面分析,以明确该系统的风险影响水平。通过对算法设计、部署、运行的全部流程予以动态评估,要求智能系统在应用于商业以及公共事业场景前就接受独立的专业分析,可以促使科技公司强化控制流程而实现更高效率的风险管理,有利于政府实施差异化、精准化的风险治理。人形机器人同人类联系更紧密,必然涉及大量个人信息处理,应完善个人信息保护影响评估。个人信息保护影响评估是指对个人信息处理活动所造成的影响进行的评判,属于重要的风险评估方法。个人信息保护影响评估有利于及早发现相关行为可能存在的风险,从而可以有针对性地进行研发设计并采取防范措施。

2. 保险与行政处罚机制



保险机制:保险机制可以分担人形机器人可能带来的风险,使制造商、运营商和用户都能够更好地承担责任,从而降低参与者的风险感。首先,应完善人形机器人保险责任制度,合理分配人工智能创新的风险。其次,应优化《“十四五”机器人产业发展规划》提出的“首台(套)重大技术装备保险补偿机制”,探索人形机器人强制性责任保险与无过错赔偿方案。按应用场景划分保险保额等级,如医疗手术机器人最低投保500万元,家庭服务机器人最低投保50万元;建立保险与认证挂钩机制,未投保强制性责任保险的产品不得进入市场;推行无过错赔偿方案,受害者无需证明过错即可获得保险赔付,后续由保险公司向责任方追偿,确保受害者及时获得救济。


行政处罚优化:目前我国人形机器人赛道发展潜力巨大,但距离大规模投产还有相当距离,我国要想在世界竞争中塑造有利格局,前提是需要为其营造宽松包容的发展环境。处罚过宽、过严均会严重遏制其发展,故针对人形机器人发展过程中的违法违规行为应有选择地控制行政处罚强度与幅度,并将有关主体是否存在主观过错纳为行政处罚的重要考量因素。具体而言,人形机器人的违法行为可参照适用《行政处罚法》第33条“首违不罚”制度,对初次违法、后果轻微且及时改正的行为(如未按规定备案非核心技术参数、轻微数据存储期限超标)不予处罚;合理控制处罚强度与幅度,将主观过错、危害后果、整改情况、技术创新贡献等作为处罚裁量因素,避免“一刀切”式重罚。建立“处罚与激励挂钩”机制,如对连续3年合规经营、获评行业合规标杆的企业,给予税收减免、政策补贴、试点场景优先开放等激励;对故意违法、造成重大人身财产损害或公共利益损失的,依法从重处罚并纳入行业黑名单。

3. 分级分类监管体系



分级分类核心划分维度:一是风险等级维度,结合人形机器人的技术自主度、交互深度、损害后果严重性,划分为不可接受风险、高风险、中风险、低风险四类;二是应用场景维度,针对医疗、教育、家庭、工业、特种作业等场景,细化监管重点;三是技术成熟度维度,对原型机、试产产品、量产产品实行差异化监管,原型机应侧重研发伦理审查,试产产品需通过专项检测认证,量产产品需符合全生命周期安全标准。


差异化监管实施路径:高风险场景实施准入审批、强制认证、年度评估三重管控,需提交风险评估报告、算法安全白皮书等材料,通过专项认证后方可准入,每年开展合规复核;中风险场景实行备案管理、过程监测、随机抽查三重制度,企业投放市场前备案技术参数与防控措施,留存决策记录不少于1年,监管部门按季度随机抽查;低风险场景以企业自律和行业共治为主,鼓励企业制定高于国家标准的自律规范,行业协会建立信用评价体系,监管部门仅针对投诉举报开展针对性检查。


监管保障机制:首先是标准衔接,将分级分类要求嵌入《人形机器人标准体系框架》,高风险场景配套强制性国家标准,中低风险场景推行推荐性行业标准;其次是动态调整,建立年度评估和重大变更复核机制,结合技术迭代、场景拓展、风险事件等调整风险等级与监管措施,跨场景应用按“就高不就低”原则监管;最后是协同监管,依托工信部、市场监管总局、网信办跨部门协同机制,明确分工、共享信息、联合执法,形成监管闭环。


III. 全球立法基准与司法管辖权分歧


A. 欧盟:安全与风险的并行双重监管





1. 《人工智能法案》(AIA):风险分级治理


欧盟于2024年5月通过的《人工智能法案》(Artificial Intelligence Act,以下简称“AIA”)序言第47段强调,越来越多的自主机器人,无论是在制造领域还是在个人协助和护理领域,都应该能够在复杂的环境中安全运行并执行其功能,特别是当人工智能系统作为产品的安全组件时,只有安全和符合要求的产品才能进入市场。AIA将人工智能系统将人工智能的风险等级分为高风险、中等风险、通用型AI模型等,针对不同风险的人工智能确定严格不一的管控机制。根据该法案规定,自2026年8月2日起,部分特定的人工智能系统将在欧盟区域内面临严格的使用限制,甚至有部分AI应用将被全面禁止。


值得注意的是,AIA引入了“监管沙盒”概念,为创新性人工智能系统提供受控测试环境,这一机制对人形机器人这类前沿技术的合规发展具有重要意义。


2. 《机器人技术民事法律规则》提案:法律人格争议


欧洲议会提案《机器人技术民事法律规则》(Civil Law Rules on Robotics)采用了人类代表人理论,使人形机器人制造商承担侵权责任。该提案规定:“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格。”


根据人形机器人的复杂程度,法案所称“最复杂的自动化机器人”应当指人形机器人。换言之,欧盟视人形机器人为“法人”,赋予人形机器人以法律人格,负有监护义务的人类代表,诸如制造商、经营者等,对人形机器人所造成的损害负责。人形机器人在进入市场之前需要注册登记成为有限责任的法人,拥有其制造商提供的一份基金,该基金可以在出现侵权时支持缔约方的索赔。此提案在2017年提出后,于2022年被欧盟委员会在产品责任指令(The Product Liability Directive,以下简称“PLD”)中予以明确否定。


2018年来自14个欧洲国家的156名人工智能专家发表公开信,公开反对欧盟议会关于人形机器人应具有电子人法律地位的提案。一方面,人形机器人的责任体系构建主要涉及人形机器人的责任能力,而非权利能力,在人形机器人缺乏受其支配财产的情况下没有讨论法律人格的必要。另一方面,人形机器人不会遭受痛苦,也就无所谓是否对其进行惩罚,将人形机器人视为可以承担法律责任的实体是没有意义的。


3. 《机械指令》(Machinery Directive)的物理安全融合


欧盟《机械指令》(Machinery Directive,以下简称“MD”)作为机器人物理安全的基础规范,2023年修订后进一步强化与AI技术的适配性,为所有进入欧盟市场的机械产品设定了统一的安全标准和准入规则。


新条例最核心的变化,是引入了“高风险机器”的分类,而带有嵌入式AI系统、具备自学习能力的产品,比如某些人形机器人就落入此列。一旦产品被划为“高风险”,企业将失去“自我声明”的便捷通道,必须通过第三方强制认证(由TÜV、DEKRA等认证机构执行)才能贴上CE标志。另一大创新是将软件正式纳入了机器安全的版图。过去,监管重心在硬件;如今,任何承担安全功能的软件,都被视为机器不可或缺的安全部件,必须接受同等的合规审查。这是对“软件定义机器”时代趋势的直接回应,也与AIA的逻辑遥相呼应。


B. 美国:普通法、行业标准与去中心化





美国的监管方式更加去中心化,主要依赖现有行业的安全标准和州一级的普通法侵权裁决。美国对人工智能包括人形机器人采取了一种分散化、行业导向的监管策略:


1. 联邦层面政策


美国联邦政府未出台人形机器人专项立法,仅通过战略计划、行政命令提供方向性支持,直接的、专门的强制性监管规则相对有限。



2021年启动的《美国国家机器人计划》(National Robotics Initiative,NRI)聚焦人形机器人的基础研究,鼓励高校、企业、科研机构合作,重点突破具身智能算法、高转矩密度电机等核心技术。2023年《国家人工智能研发战略计划》进一步提出“增强人工智能系统感知能力”“开发可靠机器人交互技术”等目标。


2023年末发布的《关于安全、可靠和值得信赖的人工智能的行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),提出五项核心原则,分别是:安全有效系统、防止算法歧视、通知与透明度、人工选择、用户退出权,要求联邦机构在采购人形机器人时优先选择符合这些原则的产品,但未对企业施加强制义务;同时,该行政命令要求开发高风险AI模型的企业,如为人形机器人提供大模型支持的企业,向联邦政府报备测试数据,便于政府掌握技术风险,但不干预企业具体研发过程。

2. 州级层面规制


州级层面是美国人形机器人监管的核心,不同州根据产业基础出台差异化规则。



多数州未出台专项立法,可能依赖产品责任法、侵权法等普通法规则处理人形机器人事故。例如田纳西州法典第106条(a)明确:“涉及自动驾驶系统的车辆事故,责任依据产品责任法、普通法或其他适用法律确定”,但未细化“自动驾驶系统致损”的归责规则。实践中,法院可能参照“汽车产品责任”判例适用于人形机器人事故,若机器人缺陷源于设计或制造,制造商承担责任;若源于用户操作不当,用户承担责任。


加州在2024年通过多项法案,包括《生成式人工智能问责法案》(Generative Artificial Intelligence Accountability Act)、《保护民主免受深度伪造欺骗法案》(Defending Democracy from Deepfake Deception)、《医疗保健服务:人工智能法案》,同时通过《加州消费者隐私法》(California Consumer Privacy Act)规范机器人对用户数据的采集与保存,赋予用户访问、删除数据的权利;


科罗拉多州2024年签署的《科罗拉多州人工智能法案》(Colorado Artificial Intelligence Act))借鉴欧盟经验,将教育、医疗、金融等领域的人形机器人归入“高风险AI系统”,要求部署者实施风险管理程序、完成影响评估报告,并向用户公开系统功能与风险;


犹他州的《犹他州人工智能政策法案》(Utah Artificial Intelligence Policy Act)要求医疗、法律等“受监管职业”使用人形机器人时,需以“显著方式”告知用户,避免用户误将机器人行为视为人类行为。

3. 监管特点


美国监管模式的核心特点是“行业自律为主、政府干预为辅”。同时,去中心化监管导致州际规则差异显著,例如加州要求医疗机器人每季度提交算法更新报告,而内华达州无此要求,企业跨州经营需适配不同规则,增加合规成本。但这种以事后问责为主的监管模式,在初期为企业提供了更灵活的试错空间,成为美国维持产业竞争力的重要因素之一。


C. 其他重要司法管辖区





1. 俄罗斯


2017年,俄罗斯民法学者在法律草案《在完善机器人领域关系法律调整部分修改俄罗斯联邦民法典的联邦法律》(又称《格里申法案》)第1条中,提出了赋予机器人“机器人-代理人”法律地位的建议,规定“机器人-代理人”拥有独立的财产并以之为自己的债务承担责任,可以以自己的名义取得并行使民事权利和承担民事义务。虽然该草案只是俄罗斯学者对机器人和机器人—代理人在私法框架内形成的初步认识与规范设计,但其却是世界上最早的关于智能机器人法律地位的法律草案之一。


2. 日本



日本总体上将机器人作为产品责任法的规制客体,依据《产品责任法》处理相关纠纷。如果机器人搭载的人工智能存在“缺乏通常应提供的安全性”之缺陷,制造商将承担责任。然而,日本对于人工智能何时应被视为“缺乏其通常应提供的安全性”尚无既定观点,司法实践中主要依赖个案判断。


2022年发布的《新机器人战略》将人形机器人列为“第四次工业革命核心产业”,通过补贴、场景开放推动其在制造业、护理医疗领域落地;伦理监管以行业指引为主,2024年《人工智能运营商指南》要求人形机器人研发遵循“人类优先”原则,医疗场景机器人的决策需经人类确认,但无强制约束力。


2024年,日本自民党提出《关于推进负责任的AI法律治理的提案》,拟针对“特定AI基础模型开发者”设立义务,要求为人形机器人提供大模型支持的企业履行安全性验证、风险信息共享义务,同时探索“AI生成内容标识”制度,但该提案仍处于讨论阶段,尚未进入立法程序。

3. 韩国



2022年《第三次智能机器人基本计划》为“智能机器人2022年实施计划”拨款1.722亿美元,重点支持人形机器人核心部件研发;2024年《第四个智能机器人基本计划》进一步提出投资3万亿韩元,培育150家专业机器人企业,推动100万台机器人在制造业、物流领域普及。1


2023年修订的《智能机器人法》新增“户外移动机器人”监管,要求此类机器人(含具备户外移动功能的人形机器人)通过安全认证(涵盖行驶速度、避障能力、应急响应等16项标准),且需投保强制保险,未通过认证或未投保的,禁止上路运行。


2024年6月,韩国产业通商资源部宣布拟再次修订《智能机器人法》,计划明确“人形机器人”的法律定义,细化其在医疗、家庭服务场景的安全标准,同时建立“机器人事故历史管理系统”,实现事故责任追溯。

D. 核心分歧





1. 监管差异


欧盟以“风险预防”为核心,通过严格的风险分级、强制认证、全链条责任追溯防控风险,优先保障公共安全与用户权益;美国以联邦原则指引、州级自治、行业自律为主,避免过度规制抑制技术迭代;俄、日、韩则分别根据产业基础调整,俄罗斯探索法律拟制以解决责任问题,日本侧重市场培育,韩国兼顾产业扶持与基础安全监管。


2. 法律人格认定分歧


欧盟明确否定人形机器人法律主体资格,认为其缺乏责任能力与主观意志;俄罗斯通过登记制度赋予有限权利能力,构建“机器人-代理人”模式;美国、日本、韩国均未认可其法律人格,仅将其视为产品或财产,未突破以自然人为核心的传统民事主体体系。


3. 责任归责模式差异


欧盟适用全产业链严格责任,PLD与AIA结合覆盖硬件、软件、服务全环节,减轻受害人举证负担;美国依赖普通法过错责任与产品责任,规则分散且州际差异大,企业合规成本高但灵活性强;俄罗斯探索机器人独立财产与独立责任,试图通过法律拟制分配风险;日本、韩国未明确细化归责规则,司法实践依赖个案判断,跨国案件中可能易出现法律适用冲突。



IV. 国际协同的难点与地缘政治壁垒


全球在人形机器人的监管上,出现了若干“软性共识、硬性分歧”的格局——各国在高层原则与自愿框架上尚能对齐,但在适用范围与定义、认证与标准、数据主权与跨境流动、出口管制与供应链等关键处存在系统性的区别。这使跨境商业化与合规协同呈现碎片化、成本高与不确定性强的特征。其中,下列三类障碍最具代表性。


A. 跨司法管辖区的标准化和认证挑战





欧盟的监管模式主要是通过《人工智能法案》(AIA)确立风险分级开展监管,同时该法案也具有一定的域外效力。AIA确立了“高风险系统-义务”、禁止某些不可接受系统、以及透明义务等监管结构。该风险分级治理机制将AI系统按不可接受、高风险、有限风险、最小风险进行了分类,并指出了相对应的不同监管义务(如数据集、透明度、监控人机交互、能力评估等)。该法规下,生产者的合规路径为自证 +政府/市场监管,即对于高风险系统,提供者需进行合格评估、技术文档、监控义务、并可能接受市场后监督。同时,AIA也明确了其域外适用的效力。例如,只要一个AI系统的输出在欧盟市场使用,即使提供者或部署方在第三国,也可能受 AIA约束。


美国的人形机器人监管则没有统一的联邦级人工智能法案,而是依托多部门监管、行业标准与普通法体系共同构成合规框架,具有“去中心化”的特征。在联邦层面,美国对人形机器人的监管权主要分布在不同机构之间。例如,美国国家标准与技术研究院(NIST)发布了《人工智能风险管理框架》,该框架虽非强制性法律,但已成为企业开展AI相关产品安全评估与合规自查的核心工具。它以“识别—评估—减缓—治理”为主线,鼓励企业主动管理算法偏差、安全性、可解释性与伦理影响。职业安全与健康管理局(OSHA)和食品药品监督管理局(FDA)等部门则在其职责范围内监管医疗设备、自动化工厂等特定领域的人形机器人。同时,由于缺乏专门立法,美国在AI及机器人监管上大量依赖普通法原则与行业自律标准。普通法责任机制:若人形机器人在实际使用中造成损害,法院可依照传统产品责任法判定制造商、设计方或分销商的侵权责任。


中国则采取一种自上而下的国家战略与监管体系。中国的人形机器人治理采用“国家主导型—政策先行—法律逐步完善”的路径。国家政策与行政规章在立法前起到导向性作用。自《新一代人工智能发展规划》(2017)确立AI为国家战略产业后,AI被纳入“制造强国”“数字中国”等宏观布局。2025年起,“具身智能”首次写入《政府工作报告》,显示国家对人形机器人等具身智能技术的战略重视。工业和信息化部等部门发布《人形机器人标准体系框架》,提出要构建涵盖基础通用、关键技术、测试评价、安全与伦理的全链条标准体系。该体系虽非法律,但已成为企业研发与产业化的合规指引。


以上各地区监管理念差异直接导致人形机器人合规面临较大挑战。同一产品在欧盟可能需按风险程度进行评估,在美国可能主要遵循行业标准自证,在第三国又强调本地数据留存与备案,导致多重、并行、难互认的合规链。


B. 风险认知的差异与社会接受度





1. “抽象AI风险”与“物理机器人风险”的交叉和空白


当今国际社会在人工智能治理中存在显著的风险范式差异。加拿大、法国、德国、意大利、日本、英国和美国,以及欧盟组成的七国集团在“广岛人工智能进程”(Hiroshima AI process)部长级论坛上启动制定的《高级AI系统行为准则》(International Code of Conduct for Advanced AI Systems)以及英国主导的《布莱切利宣言》(The Bletchley Declaration)等国际文件,主要聚焦于通用人工智能与前沿模型所引发的“系统性风险”,如算法偏见、模型幻觉、内容操纵、社会失控等“抽象AI风险”。这类风险更多属于算法层面与信息安全层面的治理议题,其核心在于确保模型透明度、可解释性以及对人类价值的服从。


然而,这类政策文件对于“具身智能”或“人形机器人”所涉及的实体交互风险,如碰撞、夹伤、跌倒、环境干扰、电气故障、能耗异常等问题,几乎未作实质性规定。相比于算法系统,具身机器人不仅具有物理存在,还会在复杂、动态的环境中与人直接互动,因此其安全风险既涉及机械工程、控制论与传感系统,也涉及社会心理和伦理问题。这种“抽象AI风险”与“物理机器人风险”的并置现象造成了一个全球性的监管断层:在上层治理层面,国际社会的AI治理议题仍停留于算法、数据与伦理规范的“软法”层面;而在技术落地层面,人形机器人作为“算法具身化”的终端,仍需遵循传统机械、电气及安全工程标准。


因此,在实际合规过程中,企业往往面临“双轨要求”:既需满足算法与数据的软性安全规则,又需满足物理安全的强制性标准。两者之间的协调缺位,使得跨国人形机器人企业在设计与认证阶段遭遇重复评估、互不承认、责任边界不清等问题。这种软法和硬法断裂成为国际协同监管的重要阻力之一。


2. 社会价值分歧与治理节奏的不一致


各国在AI与机器人治理中所体现的价值导向存在明显分歧,这也直接影响了法律制度的形成节奏与监管强度。欧盟路径以“基本权利优先”“预防原则”为核心,强调在风险未完全确定前采取审慎监管措施。欧盟的《人工智能法案》即体现了这一理念,要求企业在技术开发早期即进行风险评估与合格认证,以防范潜在的社会与伦理危害。这种模式侧重“权利保障—风险防控”的思维路径。美国路径则以创新自由与市场竞争为优先原则,强调“风险的可接受性”与“事后问责机制”。美国的AI治理主要通过行业自律、标准体系以及普通法责任实现,形成一种“自愿遵循+司法补救”的模式。同时,东亚模式(例如中国、韩国、日本):更注重社会稳定、产业安全与国家主权,在治理上强调“场景导向”与“行政主导”。以中国为例,政策重心放在人机共处场景的社会风险、数据安全与伦理审查上,而非抽象的模型安全。


这些价值观的差异直接影响了国际社会在AI与人形机器人治理上的步调一致性。多边平台如经济合作与发展组织(OECD)人工智能原则和全球人工智能伙伴关系(GPAI)虽在透明、可解释、公平等方面形成了软性共识,但OECD 2024年度评估报告明确指出:原则层面的共识并不能自动转化为监管执行的一致性。各国的制度移植与互操作性仍受制于政治体制、法治文化及经济利益的差异。这意味着,在全球范围内,人形机器人等“具身AI”技术的伦理标准可能趋同,但监管执行层面的碎片化依旧严重。这些差异导致同一类型的机器人产品在不同法域面临完全不同的合规路线与社会期望。


3. 学界对“跨域一致性”的长期担忧


学术界普遍认为,全球统一的AI或人形机器人监管框架在短期内难以实现。一方面,国际法层面尚缺乏明确的人工智能条约;另一方面,各国在执行与负担分配上的利益分歧深刻。其中最突出的三个问题为:1)可执行性问题:AI系统的跨境特性与算法自治性使得国际条约难以形成有效的监督与惩罚机制;2)负担分配问题:发展中国家担心高标准监管会抬高技术门槛、限制创新能力,而发达国家则倾向以“技术安全”为由强化市场准入要求,形成事实上的贸易壁垒。3)合规成本问题:不同法域的多层监管体系使跨国企业承担高昂的认证、备案与法律顾问费用,从而削弱全球创新的整体效率。


因此,多数学者主张采用“软法—标准—相互承认”的渐进协同路线。例如通过ISO、IEC及IEEE等国际标准化组织推动安全评估与算法透明度的全球对接;通过OECD与G7建立跨域数据共享和责任互认机制。这一模式虽不能取代强制性法律,但有助于逐步降低跨境合规的制度摩擦。


C. 关键领域政策同步的困难





全球人形机器人监管的协同难题不仅体现在伦理与标准层面,更深层地嵌入于数据治理、关键零部件管制与供应链安全等技术—地缘政治交叉领域。这三者在当代国际政策体系中呈现出高度关联性:数据跨境流动的不确定性限制了智能系统的远程运维与算法协同;半导体与高性能执行组件的出口管制直接影响机器人的制造能力与性能迭代;而全球供应链的“安全化”趋势则导致国家间的政策同步日益困难。其中,有以下三项突出问题导致全球人形机器人相关关键领域政策难以同步。


1. 数据主权与跨境传输的不确定性


数据主权问题已成为全球人形机器人国际监管协同的核心障碍之一。自2020年欧盟法院在“Schrems II” 判决中废止欧盟—美国“隐私盾”机制以来,跨境数据传输的法律基础陷入长期的不稳定状态。虽然欧盟与美国在2023年通过了《欧美数据隐私框架》(EU-US Data Privacy Framework)以恢复跨境数据流动机制,但欧盟内部仍存在持续的司法审查和政治争论。欧盟隐私倡议组织(NOYB)已表示将再次就DPF合法性向欧洲法院提起诉讼,这意味着企业的合规预期依然不确定。


对于人形机器人企业而言,这种制度不确定性具有特殊影响。具身智能设备通常依赖云端算法更新、远程诊断和用户交互日志上传,而这些数据往往包含视频图像、语音指令、生物识别信息及位置信息等敏感要素。若机器人跨境运维,其数据传输路径必须符合欧盟《通用数据保护条例》(General Data Protection Regulation,GDPR)下的合法传输工具,如标准合同条款(SCCs)、有约束力的企业规则(BCRs)或补充技术措施。


同时,部分国家(如中国)依据《数据安全法》和《个人信息保护法》实施出境数据安全评估与本地化存储制度,进一步增加跨国企业的双重合规负担。值得注意的是,中国有关数据分级的相关法律仍处在动态更新和制定的过程中,这可能导致跨境数据传输的“合法性窗口”呈现动态变化状态,企业必须持续评估监管趋势、数据类型与境外接收方风险。国际数据治理的碎片化直接削弱了人形机器人远程服务、全球运维与联邦学习等应用模式的可行性,形成了所谓的“数据主权悖论”——国家主权的强化与技术全球化的矛盾并存。


2. 出口管制与“类军民两用”属性外溢


人形机器人产业的另一大国际协同障碍来自于关键零部件与算力设备的出口管制化趋势。近年来,主要国家普遍将高性能计算芯片、伺服电机、减速器、力觉传感器与控制算法列入“敏感技术”清单,认为其既具民用潜力,又可能被用于军事或战略用途,因而具有“类军民两用属性”。


依托《出口管理条例》(Export Administration Regulations,EAR),美国商务部工业与安全局(BIS)持续扩大其管控范围,2022–2024年间多次修订对中国及其他地区的先进芯片出口禁令,并将部分AI训练平台与高性能GPU纳入“受控物项”。由于人形机器人依赖这些算力平台进行实时视觉识别与自主导航,芯片限制实际上对机器人制造链构成隐性约束。欧盟在2025年发布的新版《欧盟两用物项清单》中,欧盟委员会更新了多项与AI计算模块相关的出口限制。此外,欧盟正探索建立更集中化的单边出口控制工具,以便在应对地缘政治紧张时能迅速实施技术封锁。亚洲主要经济体(如日本、韩国)也在仿照美国体系,对半导体制造设备、机器人关节驱动单元等技术实施许可证制。


这些措施显著提高了人形机器人企业在零部件跨境采购、技术协作与售后支持中的合规难度。由于供应链高度依赖国际分工,任何单边出口管制都可能导致全球机器人产业出现“供应链断点”。学者指出,这种“技术安全化”趋势使得AI与机器人不再是单纯的产业议题,而成为国家安全与战略竞争的延伸。


纵观全球人形机器人监管格局,可以发现,当代国际协同已进入一个“软性共识有限、硬性分歧加剧”的阶段。各国在伦理原则、算法透明与安全风险的抽象层面上能够形成一定的理念趋同,但在制度设计与执行层面却呈现出结构性分化。


首先,在制度架构层面,欧盟、美国与中国三大法域分别代表了三种不同的治理路径。欧盟通过《人工智能法案》确立以风险分级为核心的强制监管体系,强调合格评估与域外适用,体现了“权利优先、预防为主”的立法逻辑;美国依托分散的部门监管、行业标准与普通法责任机制,形成“自愿合规、事后问责”的体系,体现“创新优先、市场导向”的政策哲学;而中国则以国家战略为引领,构建“政策先行—标准引导—法律衔接”的渐进式治理体系,强调数据主权、安全可控与场景治理。这种“三极模式共存”导致国际人形机器人监管标准难以互认、认证体系难以统一,形成多轨并行、难以对接的合规格局。


其次,在风险认知与社会接受度层面,全球治理呈现出显著的范式错位。国际社会在“抽象AI风险”与“物理机器人风险”之间存在显著断层:前者强调算法偏见与信息安全的“软法”约束,后者则依赖机械与电气安全的“硬法”规制。人形机器人作为算法的物理化形态,跨越了二者的传统监管边界,却缺乏统一的法律衔接机制。这种断裂不仅造成企业在算法备案与物理认证之间的合规重复,也暴露了国际制度在技术融合场景下的滞后性。与此同时,不同地区的社会价值观也影响了监管节奏——欧盟强调基本权利与伦理防护,美国强调创新与市场效率,中国与东亚国家则更注重社会稳定与主权安全。各国在相同议题上的风险阈值、容忍度和政策手段差异显著,使得多边协作的节奏难以同步。


从宏观层面看,国际人形机器人监管正经历从技术治理向制度竞争的过渡。治理焦点不再仅是如何保障AI安全,而是由谁制定标准、谁掌握数据、谁主导合规体系。标准制定权、数据流通权与技术供应权正在成为新的国际博弈核心。各国在制度设计中所强调的“国家安全”、“科技主权”和“产业竞争力”等重点共同塑造了一个多极化、碎片化、但又相互依存的全球监管版图。


谨此,向为本文作出不可或缺贡献的美国纽约州执业律师Sylvie Zhang及其团队,致以最深切的谢意。


脚注

[1] 参见金杜律师事务所,《人形机器人法律规制的号角(一)——韩国机器人立法及政策概览 》,https://www.kwm.com/cn/zh/insights/latest-thinking/regulations-on-humanoid-robot-overview-of-south-korean-legislations-and-policies-on-robotics.html