AI提供的信息不靠谱 开发者要担责吗?

人工智能不具有民事主体资格,不能作出具有法律约束力的意思表示。…

  近年来,生成式人工智能在为人们提供便利的同时,也经常出现答非所问、信息不准确等“AI幻觉”现象,给用户带来困扰。近期,杭州互联网法院审结了一起生成式人工智能模型提供不准确信息引发的侵权纠纷案。

  AI提供不实信息,有没有责任?

  2025年6月,本案原告梁先生发现,一款生成式人工智能应用程序提供的部分信息有误,随即在对话中对人工智能进行了纠正和指责。但生成式人工智能却坚称信息无误,并生成了解决方案——若生成内容有误,将向梁先生提供10万元赔偿,并建议他起诉。2025年7月25日,梁先生将这家人工智能公司诉至法院,要求该公司对其进行赔偿。

  法院经审理认为,人工智能不具有民事主体资格,不能作出具有法律约束力的意思表示。该人工智能公司已充分履行了服务功能的显著提示说明义务和生成内容可靠性的基本保障义务,案涉行为不存在过错,亦未构成对原告权益的损害,依法应认定不构成侵权。因此,法院判决驳回原告的诉讼请求。判决后,原被告双方均未上诉。

  如何界定开发者是否有过错?

  法律界人士普遍认为,这一判决在主体资格、归责原则等方面给出了相对明确的意见。例如,判决认定人工智能不具有民事主体资格;生成式人工智能以对话方式提供的信息,应被视作服务而非产品,因此适用过错责任原则。

  杭州互联网法院跨境贸易法庭庭长肖芄认为,AI生成的不准确信息本身并不构成侵权,需要考查的是提供服务的开发者是否存在过错。那么,如何界定开发者是否有过错?肖芄进一步解释,需要考查比如开发者是否使用了当前行业内通行并被证明有效的措施,来提升技术可靠性,降低错误发生的概率,由此证明是否存在过错。

  如何找到促进创新和权益保障的平衡点?

  人工智能行业业内人士表示,当前生成式人工智能基本都是基于词元的预测,如果这一底层架构没有发生根本性转变,信息偏差就不可避免。尽管如此,技术的客观局限性并不能成为人工智能开发者的免责借口。

  肖芄表示,如何认定生成式人工智能的侵权责任,是一个少有成例的司法前沿问题,希望通过妥善准确的判决引导开发者或者平台提升信息标准,“找到促进创新和权益保障的平衡点”。

  业内人士建议,建立国家级人工智能安全评测平台,相关部门和平台要加强AI生成内容审核,提升检测鉴伪能力。

    上一篇

    下一篇

    返回列表

    政法视野网

    政法视野网——解读政法文明。投稿邮箱:zfsynews#163.com(请将#替换为@)
    联系我们

    联系我们

    010-68998789

    在线咨询: QQ交谈

    邮箱: zfsynews@163.com

    工作时间:周一至周五,9:00-17:30,节假日休息

    关注微信
    微信扫一扫关注我们

    微信扫一扫关注我们