2025年06月29日 星期日 国内统一刊号:CN51—0098     中国•企业家日报

生成式人工智能的健康发展:风险挑战与治理对策

来源:企业家日报 作者:

■  段晓鸣 张庆鑫

 

当前,生成式人工智能正以迅猛态势重塑社会生产与知识创造模式。2025年,全球77%的企业通过部署生成式人工智能提升生产力,我国上线大模型超190个,注册用户突破6亿。与此同时,技术的双刃剑效应日益显著:DeepSeek-R1等模型以十分之一成本实现与OpenAI同等推理能力,而深度伪造诈骗案件年增长率高达120%。基于此,如何在创新与风险间寻求平衡成为生成式人工智能健康发展的核心命题。

一、多重风险挑战:技术应用的潜在危机

(一)数据安全与隐私泄露风险突出

生成式人工智能依赖海量数据输入,用户数据上传致敏感信息暴露风险陡增。三星曾因员工误用 ChatGPT泄露设备参数,Meta因违反欧盟数据保护条例被罚12亿欧元。模型优化阶段,若个人信息与商业秘密被用于训练且缺乏合规机制,将引发超目的处理与跨境传输合规问题。

(二)内容真实性与知识产权冲突冲击信任

OpenAISora模型突破视频生成技术,却模糊了真实与虚假的边界。AI“李鬼现象泛滥,模仿明星形象的虚假视频与虚构专家人设的推销内容侵害公民权益、误导消费。知识产权领域面临法律挑战:训练数据是否合理使用存疑,我国《中华人民共和国著作权法》相关条款难覆盖人工智能学习行为。

(三)算法偏见与人类主体性弱化的伦理困境

大模型继承训练数据中的社会偏见,可能强化性别、地域歧视,如招聘场景中人工智能可能产生不公正筛选。更深层的影响是人类认知退化:湖北工业大学调研发现,大学生因工具依赖出现思维惰性与元认知弱化。

二、治理探索:现行框架的局限

(一)全球监管分化与制度缺陷

欧盟通过《人工智能法案》设立禁止清单,我国以《生成式人工智能服务管理暂行办法》构建监管框架。但现行制度仍存在诸多不足:责任机制模糊,数据共享责任未厘清;立法层级不足,部门规章难衔接上位法,对新型犯罪缺乏操作细则;技术治理滞后,大模型幻觉致内容难辨,现有审核技术难应对多模态伪造。

(二)伦理治理机制落地乏力

《科技伦理审查办法(试行)》要求设伦理委员会,但企业实操流于形式。护理领域人工智能应用面临价值对齐困境,机器难以理解伦理关怀内核。科研领域中,《自然》期刊调查显示,68%的学者认为AI加剧学术剽窃风险,虚假论文污染知识生产源头。

三、对策体系:构建技术向善的治理生态

(一)敏捷立法与协同监管

推进人工智能专项立法,明确开发者、运营者和用户三方责任,建立多部门联动监管;根据应用场景风险等级实施差异化治理,对医疗、金融等高敏感领域设强制人工复核;开发AIGC深度鉴伪平台,结合区块链技术实现生成内容全链路溯源。

(二)筑牢数据安全防线

训练数据端建立数据合法来源审核,用合成数据减少原始依赖;部署端用联邦学习实现数据本地化处理;用户交互端落实去标识化要求,严禁非必要个人信息留存。

(三)重塑人本伦理与技术文化

教育领域推动探索性使用,如哈佛大学允许师生在20%工时内试验AI工具并调整评估标准强化批判思维;企业遵循RAG架构提升模型可解释性,定期检测幻觉率;坚守人是目的原则,明确人工智能的工具属性。

(四)构建产学研创新生态

加速国产算力基础设施布局,研制人工智能芯片应用标准;支持行业联盟共建公共训练数据平台,推动语料库开放共享。F5公司联合NVIDIA、英特尔的实践表明,生态协作能显著提升AI集群运行效率。

为促进生成式人工智能健康发展,需在技术创新、伦理约束与制度保障间寻求平衡。短期以敏捷治理补监管短板,中期强化数据安全与国产算力,长期回归人本价值。唯有多方协同共治,才能让生成式人工智能成为培育新质生产力的向善之力。

(作者单位:段晓鸣,中共泰安市委党校;张庆鑫,泰安市岱岳区财政局)