■ 段晓鸣 张庆鑫
当前,生成式人工智能正以迅猛态势重塑社会生产与知识创造模式。2025年,全球77%的企业通过部署生成式人工智能提升生产力,我国上线大模型超190个,注册用户突破6亿。与此同时,技术的“双刃剑”效应日益显著:DeepSeek-R1等模型以十分之一成本实现与OpenAI同等推理能力,而深度伪造诈骗案件年增长率高达120%。基于此,“如何在创新与风险间寻求平衡”成为生成式人工智能健康发展的核心命题。
生成式人工智能依赖海量数据输入,用户数据上传致敏感信息暴露风险陡增。三星曾因员工误用 ChatGPT泄露设备参数,Meta因违反欧盟数据保护条例被罚12亿欧元。模型优化阶段,若个人信息与商业秘密被用于训练且缺乏合规机制,将引发超目的处理与跨境传输合规问题。
OpenAI的Sora模型突破视频生成技术,却模糊了真实与虚假的边界。AI“李鬼”现象泛滥,模仿明星形象的虚假视频与虚构专家人设的推销内容侵害公民权益、误导消费。知识产权领域面临法律挑战:训练数据是否合理使用存疑,我国《中华人民共和国著作权法》相关条款难覆盖人工智能学习行为。
大模型继承训练数据中的社会偏见,可能强化性别、地域歧视,如招聘场景中人工智能可能产生不公正筛选。更深层的影响是人类认知退化:湖北工业大学调研发现,大学生因工具依赖出现思维惰性与元认知弱化。
欧盟通过《人工智能法案》设立禁止清单,我国以《生成式人工智能服务管理暂行办法》构建监管框架。但现行制度仍存在诸多不足:责任机制模糊,数据共享责任未厘清;立法层级不足,部门规章难衔接上位法,对新型犯罪缺乏操作细则;技术治理滞后,大模型幻觉致内容难辨,现有审核技术难应对多模态伪造。
《科技伦理审查办法(试行)》要求设伦理委员会,但企业实操流于形式。护理领域人工智能应用面临价值对齐困境,机器难以理解伦理关怀内核。科研领域中,《自然》期刊调查显示,68%的学者认为AI加剧学术剽窃风险,虚假论文污染知识生产源头。
推进人工智能专项立法,明确开发者、运营者和用户三方责任,建立多部门联动监管;根据应用场景风险等级实施差异化治理,对医疗、金融等高敏感领域设强制人工复核;开发AIGC深度鉴伪平台,结合区块链技术实现生成内容全链路溯源。
训练数据端建立数据合法来源审核,用合成数据减少原始依赖;部署端用联邦学习实现数据本地化处理;用户交互端落实去标识化要求,严禁非必要个人信息留存。
教育领域推动“探索性使用”,如哈佛大学允许师生在20%工时内试验AI工具并调整评估标准强化批判思维;企业遵循RAG架构提升模型可解释性,定期检测幻觉率;坚守“人是目的”原则,明确人工智能的工具属性。
加速国产算力基础设施布局,研制人工智能芯片应用标准;支持行业联盟共建公共训练数据平台,推动语料库开放共享。F5公司联合NVIDIA、英特尔的实践表明,生态协作能显著提升AI集群运行效率。
为促进生成式人工智能健康发展,需在技术创新、伦理约束与制度保障间寻求平衡。短期以敏捷治理补监管短板,中期强化数据安全与国产算力,长期回归人本价值。唯有多方协同共治,才能让生成式人工智能成为培育新质生产力的向善之力。
(作者单位:段晓鸣,中共泰安市委党校;张庆鑫,泰安市岱岳区财政局)