◎ 文 《法人》杂志全媒体记者 王茜 见习记者 李辽
近日,智元机器人正式官宣,发布全球首个基于百万真机数据训练的人形机器人具身基座大模型——GO-1。“智元GO-1模型,无论是家庭中的餐食准备、桌面整理,还是工业环境中的复杂操作任务,都能轻松应对。”智元机器人合伙人姚卯青透露,家庭机器人等具身机器人有望在5年左右进入市场,预计定价30万元以上。
▲CFP
当机器人推开千家万户的大门,科幻作家艾萨克·阿西莫夫提出的机器人三原则,正在加速走向现实。试想,当养老护理机械臂失误导致老人受伤,当情感陪伴机器人存储的私密对话遭黑客窃取,当健康管理机器人的推荐算法因为商业利益绑定而根据用户体征向糖尿病患者推送高糖食品广告······这些场景带来的法律问题将不断冲击现行法律框架。
在不久前举行的中关村论坛上,北京大学法学院教授、北京大学电子商务法研究中心主任薛军表示,当传统法律法规受到冲击时,针对新领域的立法方法论也面临挑战。“我们应采用更具有问题导向、试错性质、有弹性的立法思路,通过行业实践等多种规制手段逐步探索形成数字经济发展所需要的法律制度。”
当法典遇到代码,一场围绕数字权利的保卫战已然打响。欧盟率先行动,其制定的《人工智能法案》确立了风险分级制度,而中国在《生成式人工智能服务管理暂行办法》基础上,今年3月接连出台了《人工智能生成合成内容标识办法》和《人脸识别技术应用安全管理办法》,为人类生物信息的应用加上了“安全锁”,彰显出AI治理的中国智慧。
AI背后有多少风险暗礁
2025年堪称“AI大规模落地元年”。DeepSeek等国产大模型为人工智能在各行业加速落地注入了核心动能。平安集团部署的AI代码系统借助该模型实现3天生成30万行代码,效率提升8%;引入大模型质检装备后,内蒙古包头某稀土企业不仅有效降低了人力成本,良品率也大幅提高;广东广州某科技企业研发的服装设计AI系统,通过智能生成版型与面料匹配,将开款效率提升10倍······
在医疗健康领域,北京协和医院的罕见病诊断模型已进入临床验证阶段;上海市肺科医院参与研发的智能手术规划系统将实际手术规划时间从数天缩短2至5分钟;北京儿童医院启用的“AI儿科医生”标志着智能诊疗正式进入日常医疗场景。养老服务方面,上海市静安区搭建的长护险智能监管平台,通过AI算法优化护理资源配置,大大提高了护理失能老人的服务质量。
人形机器人作为具身智能的最佳载体,正在开启服务产业新纪元。乐聚人形机器人已在江苏苏州低空经济展示馆担任智能讲解员,魔法原子开发的人形机器人则变身“汽车销售”,在汽车专卖店招揽顾客。上海清宝引擎机器人有限公司(以下简称“清宝”)创始人王磊接受《法人》记者采访时称:“我们的人形机器人应用于文旅场景,可做讲解、导引、互动,还可以直播带货,而且流量很大。”他还表示,今年产品销量非常好,第一季度几乎完成去年全年的销量,目前手里还有数千万元的订单。”
值得一提的是,AI技术还正在重塑社会治理模式。江苏电信金湖分公司借助新一代AI技术,通过实时数据监测助力基层治理智能化;北京丰台新村街道上线的AI调解平台,整合全国司法大数据资源,为物业纠纷、婚姻家庭等常见矛盾提供智能化解方案;福建移动依托DeepSeek大模型,为多地县政府的政务服务平台构建起智能政务中枢,群众诉求发现率提升70%。
AI正以前所未有的深度与广度改变全球就业生态。近日,世界经济论坛最新发布的《2025年未来就业报告》预测,至2030年,全球22%的就业机会将面临变革,预计新增岗位1.7亿个、9200万个岗位或被替代。而职业重构则呈现双向特征:一方面,临床医师、工程师等传统职业通过智能增强实现能力跃迁;另一方面,算法工程师、数据标注师等职业成为新的增长极。
但硬币的另一面则是全球AI风险事件频发。南都大数据研究院梳理发现,2024年,全球AI风险事件增加近五成,其中32.7%来自AI系统自身安全问题,如模型幻觉。还有67.3%是AI技术使用过程中衍生出的安全风险。其中,AI技术滥用或失控尤为引人关注。
2024年2月,一家英国跨国企业的香港分公司遭遇了精心设计的AI诈骗,骗子利用AI换脸和AI音频合成视频内容,冒充总公司CFO,直接骗走了两亿港元。
AI伦理争议也在持续发酵。2024年,某技术公司因非法利用已故歌手李玟的虚拟形象牟利,被其家属公开谴责。而此类“AI复活”服务在电商平台明码标价,从几元到数千元不等,引发公众对逝者人格权益保护的激烈讨论。
技术滥用现象在个人信息保护领域尤为突出。北京互联网法院发布的数据显示,2023年10月至2024年10月,该院受理的个人信息保护纠纷案件是2018年至2023年五年间受理此类纠纷的近两倍。
对于普通人而言,从乘车进站、上班打卡到转账支付,甚至存包、取厕纸,“要脸”的地方越来越多,而更多的时候,大家却无权决定是否“赏脸”。近日,消费者李云在北京市朝阳区某室内游乐场准备寄存随身物品时,前台告诉他:“使用储物柜必须通过人脸识别验证。”这让他十分不满:“连寄存物品都要采集人脸?这难道不是变相侵犯隐私权吗?”
今年“3·15”晚会曝光的“火眼云”系统,更揭露了医美行业通过非法技术窃取用户面容数据并进行灰色交易的产业链;金融领域也频现信息安全漏洞,国家计算机病毒应急处理中心近期通报了14款违规金融APP,涉及未经同意收集敏感信息、未明示数据用途等多项问题。
值得警惕的是,AI决策系统的不透明性正衍生新的风险:2025年春招中,多家银行采用虚拟数字人面试官,虽提升了招聘效率,但算法偏见问题持续存在。近日,中国社会科学院法学研究所教授姚佳在接受记者采访时表示,算法不透明问题由来已久,实践中,利用大数据对特定群体存在偏见或歧视等情况时有发生,“例如,生成的招聘信息对特定性别、年龄等求职者存在不公平评价,生成的信贷信息可能对相关主体的还款能力和授信额度等存在不公平评价”。
包容审慎的中国智慧
在AI技术重塑全球治理格局的当下,欧盟与中国呈现出两种不同的治理路径。欧盟推出的《人工智能法案》以风险分级为核心,而中国采取“包容审慎”的治理哲学。
通过网络安全法、数据安全法、个人信息保护法等基础性法律框架以及相关顶层规划的迭代升级,与地方试点和行业自律协同推进,中国在AI伦理规制与风险防范领域展现出独特的治理智慧。
近年,我国人工智能治理工具箱持续丰富。2021年到2022年是AI伦理规范构建期,《新一代人工智能伦理规范》发布,构建了全面、系统的人工智能伦理框架。姚佳称:“该规范提出了包括增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等基本伦理要求和涵盖管理规范、研发规范、供应规范和使用规范等特定活动伦理规范。通过该规范,增强全社会的人工智能伦理意识与行为自觉,引导负责任的人工智能研发与应用活动,促进人工智能健康发展。”
2023年,AI进入监管深化期,《生成式人工智能服务管理暂行办法》正式施行,在监管方式上,提出对生成式人工智能服务实行包容审慎和分类分级监管,要求国家有关主管部门完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引,支持各方主体在生成式人工智能领域开展协作。
为构建数字内容信任体系,今年3月,关于AI内容治理机制建设重要探索的《人工智能生成合成内容标识办法》出台。该办法首创了“显式+隐式”双标识体系,构建了服务提供者、传播平台、应用商店共同履行标识义务的治理机制,推动产业合规发展。通过强制标识,有效遏制虚假行为、政治谣言等高风险内容的传播。
当前,人脸识别技术已在多个领域得到广泛应用,随着应用场景的不断拓展,面临的安全挑战也愈发凸显。3月21日,被称为“数字时代面具法”的新规《人脸识别技术应用安全管理办法》发布,对人脸识别领域中的合法性、正当性、必要性、比例、应用场景等原则作出了解释,也明确了伦理责任、制度责任和技术责任。
AI的治理需要顶层设计与标准的双重支撑。北京理工大学智能科技法律研究中心研究员王磊接受记者采访时表示,标准在产业实践中具有重要的指导作用,不仅弥补了法律法规的不足,还能通过企业参与形成行业共识,推动最佳实践引导立法,形成良性循环。“尤其是在AI这一新兴领域,合规性尤为关键。”
王磊曾主持《智能网联汽车时空数据分类分级标准》制定。据他介绍,AI相关的标准既要明确红线,又需调动行业自律,确保安全与发展并重,因此要兼顾到各方力量,涉及产业链上下游,如算法提供商,芯片、传感器供应商等的协同。
在地方治理、行业自律、企业自治的协同推进下,我国人工智能应用治理体系正加速完善。北京、湖南等地明确禁止AI自动生成处方,划定红线机制;2024年12月,中国证监会原主席肖钢提出,算法模型需建立治理体系,人工智能无法消除金融风险;同月,科大讯飞、寒武纪等17家行业领军企业签署《人工智能安全承诺》,通过产业自律推动在技术创新与伦理约束之间的平衡探索。
此外,姚佳表示,企业需要“以技治技”,通过隐私计算、可解释人工智能技术研发等,实现以人为本、智能向善。2024年11月,四部门联合开展“清朗·网络平台算法典型问题治理”专项行动,将算法规则公开透明列为五大目标之一。美团、抖音、今日头条等平台相继推出算法改进举措,推进规则透明化,破除“信息茧房”。
如何面对未来挑战
AI技术狂飙引发的治理焦虑,引起多位全国人大代表和全国政协委员的关注。他们呼吁,启动立法研究并制定专门的人工智能综合性法律,以应对AI技术发展带来的种种挑战,确保AI技术在健康、有序的轨道上发展。
TCL董事长李东生针对模型幻觉问题,建议加快AI深度合成内容标识管理规章制度的出台;奇安信董事长齐向东建议从AI的技术保障、制度保障、成果应用三方面入手,系统提升安全能力;小米集团董事长雷军则建议加大对利用AI技术实施犯罪行为的刑事处罚力度。
技术挑战压力使得动态监管能力升级迫在眉睫。北京市社会科学院副研究员王鹏提出,试点“监管沙盒”是平衡创新与监管的有效举措。“监管沙盒”制度即创设一个受监督的安全测试区,通过以真实用户为对象测试创新产品,减少创新进入市场的时间和成本,降低监管的不确定性。“它能在保障创新的同时,有效控制潜在风险。”
为实现这一目标,王鹏建议,政府应建立跨部门协同机制,联合科技、法律、伦理等多领域专家,共同制定“监管沙盒”的实施细则和准入标准。“借鉴国际先进经验,如英国金融行为监管局的‘监管沙盒’模式,结合我国国情,探索建立符合实际的AI监管沙盒制度,并鼓励地方先行先试,逐步推广至全国。”同时,他认为,政府应加大对AI产业的支持力度,通过税收优惠、资金扶持等政策,鼓励企业参与“监管沙盒”测试,推动AI技术的创新与应用,为产业健康发展提供有力保障。
技术向善还需要学校、技术、产业和社会的一体化构建。“随着AI技术的广泛应用,法律行业对既懂法律又懂技术的复合型人才需求激增。高校应肩负起培养复合型法治人才的重任。”王鹏建议,“高校需增设AI与法律相关的交叉学科课程,如人工智能法学、法律科技导论等,并加强校企合作,为学生提供实习实践机会,提升其实践能力。”
责编|白 馗
校对|张 波 张雪慧
编审|渠 洋