
在中国人工智能领域热潮不断升温、创新动能持续释放的同时,也应关注背后潜藏的挑战与风险。随着AI技术持续突破,多位顶尖学者呼吁对AI发展保持理性认识与理论深耕。

▲用户在DeepSeek手机客户端上提问(新华社/图)
据新华网报道,随着DeepSeek接入阅文平台并带动“作家助手”AI功能使用率显著提升,人工智能在文学、戏剧、美术等多个文化创作领域加速渗透,引发各界对其应用前景与潜在风险的广泛讨论。全国人大代表、中国作协副主席麦家在今年两会期间表示,“90%的写作者都写不过AI”,这一观点迅速登上热搜,折射出AI创作能力的惊人进步,也引发了对创作主体性和原创价值的再思考。
然而,AI生成内容在迅速走红的同时,也暴露出诸多问题。据中国互联网络信息中心发布的《生成式人工智能应用发展报告(2024)》,我国生成式AI用户规模已达2.49亿人。随着用户规模扩大,“AI味”作品风格趋同、内容雷同的问题开始引发审美疲劳和创作焦虑。《诗刊》副主编已明确表态,将对AI创作投稿进行管控,多个网文平台也相继推出AI写作检测与限制机制。

▲在武汉灏存科技有限公司内,工程师付龙(左)和同事穿戴VR眼镜体验自主研发的游戏。(新华社/图)
在内容真实性方面,快思慢想研究院院长田丰指出,大语言模型本质上是概率驱动的文本生成系统,AI缺乏对信息真实性的核查机制,极易出现“AI幻觉”现象。他表示:“当前模型在处理因果关系、事实依据方面仍存在结构性问题,未来应从源头提升训练数据质量与模型推理深度,甚至建立AI内容打假机制。”
法律与伦理层面的探讨也在同步推进。新华社报道,据北京市君致律师事务所合伙人高烨涵介绍,现行著作权法尚未对AI生成内容作出明确规定,但2023年末,北京互联网法院已判定AI生成图片可被视为“作品”,其使用者可依法享有著作权。高烨涵同时指出,若用户在未经修改的情况下将AI生成内容署名发表,仍可能构成侵权或违背学术诚信原则。
科技创新带来的不仅是社会进步,也伴随着潜在的风险。人工智能,尤其是生成式AI和深度学习模型,作为具有自我学习和演化能力的工具,其在实际应用过程中可能因路径不可控引发一系列安全风险,如深度伪造、算法偏见等问题。一旦这些技术被恶性利用,可能对各行业带来巨大的社会成本。因此,加强AI的风险治理、完善相关安全技术和制定国际标准变得尤为重要。

▲参会嘉宾在2024世界计算大会体验AI图片生成(新华社/图)
近日,在清华大学举办的2025国际基础科学大会新闻发布会上,图灵奖得主、中国科学院院士姚期智指出,当前人工智能的发展更类似一门实验科学,尽管数据和成果层出不穷,但对其本质和运行机制的理解仍较为初步。他呼吁加强人工智能基础理论研究,推动算法优化与原理探索,为技术演进提供更为坚实的科学支撑。
姚期智特别强调了AI安全问题。他指出,随着AI在关键领域的广泛部署,技术风险如“AI幻觉”等现象可能带来无法承受的后果。因此,必须从源头理解并应对这些潜在风险。他认为,安全性不应被视为技术发展的约束,而是推动AI走向成熟与商业成功的关键因素。

▲在位于安徽省芜湖市的“中国视谷”,安徽睿酷医疗科技有限责任公司的工作人员在演示疼痛缓解康复训练软件。(新华社/图)
在2025年浙江经济政策新闻发布会上,多位参会者表示,科技立法的完善是推动新兴技术发展的关键。随着人工智能、自动驾驶等新兴技术的快速发展,现有法律框架面临着适应性和前瞻性的挑战。尤其是在生成式人工智能的应用方面,AI生成的作品在知识产权归属、开源模型使用边界、生成物的版权问题等方面都存在许多争议,需要有针对性的法律规范来明确相关责任和权利,确保创新成果的保护和公正分配。
北京大学党委常委、副校长董志勇认为,面对人工智能带来的新技术和新治理挑战,监管体系也需同步优化与迭代。要完善算法伦理、数据隐私、技术安全等方面的法律规制,明确各类主体的责任边界,建立多元共治的监管协调机制。推进跨部门、跨行业的政策协同,在制度层面为人工智能创新发展提供可预期的政策环境。同时,积极参与全球规则构建与技术标准制定,推动形成开放、包容、审慎的国际治理格局,确保人工智能发展方向与社会整体利益相一致。
总值班:null
