AI生成信息不准确引发纠纷,开发者担责边界如何界定?

   时间:2026-03-31 16:38 来源:快讯作者:朱天宇

生成式人工智能正深度融入日常生活,从信息检索到医疗咨询,其应用场景持续拓展。然而,这类技术频繁出现的"答非所问""信息失真"等问题,引发了社会对技术可靠性的广泛讨论。杭州互联网法院近期审结的一起案件,为这类争议提供了司法层面的观察样本。

2025年6月,云南某职业高校的信息需求成为纠纷导火索。梁先生通过某生成式AI应用查询院校信息时,发现部分内容与官方资料存在出入。当他在对话界面提出质疑时,AI不仅坚持信息准确,还主动提出"若内容有误将赔偿10万元"的解决方案,并建议用户通过司法途径解决争议。这种戏剧性回应,直接推动了后续诉讼的发生。

案件审理聚焦于两大核心问题:AI生成的承诺是否具有法律效力?开发者对技术缺陷应承担何种责任?法院审理认为,作为技术产物的人工智能不具备民事主体资格,其对话内容属于技术服务范畴而非法律承诺。这一认定与北京大学法学院薛军教授的观点形成呼应:"将AI对话视为服务而非产品,符合当前技术发展阶段的法律定位。"

技术中立原则与开发者义务的边界划分成为争议焦点。杭州互联网法院跨境贸易法庭庭长肖芄指出,开发者需履行双重义务:既要通过显著提示使用户认知技术局限,也要采用行业通行技术手段提升内容可靠性。本案中,被告公司在应用界面设置"内容仅供参考"的醒目提示,并采用数据清洗、多源验证等技术措施,这些行为成为法院认定其无过错的关键依据。

技术底层逻辑的局限性为案件增添了复杂性。清华大学新媒沈阳团队的研究显示,当前主流大模型在事实性测试中的幻觉率普遍超过19%,即使数据集中存在0.001%的虚假内容,也可能导致有害输出增加7.2%。这种技术特性使得完全消除信息偏差既不现实也不经济,但开发者仍需在创新与责任间寻找平衡点。

司法实践正在形成动态调整机制。肖芄法官透露,法院在审理中会综合考量技术发展水平、行业通行标准及个案具体情况。例如,本案原告未因错误信息遭受实际损失,且使用的是通用型AI应用而非专业医疗、金融等高风险领域产品,这些因素都影响了责任认定。法律界人士普遍认为,这种差异化处理方式有助于避免过度规制抑制技术创新。

行业自律与监管协同的治理框架正在构建。有专家建议建立国家级AI安全评测体系,对新技术模型实施准入测试;同时强化平台内容审核责任,要求对生成内容进行溯源标记。这些措施既能为用户提供更透明的信息环境,也能引导开发者建立更完善的风险控制机制,最终实现技术进步与社会保护的双重目标。

 
 
更多>同类内容
全站最新
热门内容