某大学申请者的弟弟梁某查询该大学信息时,发现AI平台生成的信息有误。 AI表示,如果内容有误,将赔偿10万元。梁先生勃然大怒,将AI平台研发公司告上法庭。近日,杭州互联网法院作出下级法院驳回诉讼的裁定。法院为何做出这样的判决?看似聪明的人工智能为何会引发“幻觉”?我们如何为生成人工智能服务定义明确的责任范围? 《消息1+1》为您带来分析解读。为什么提供人工智能服务的公司不承担责任?日本首例人工智能“幻觉”侵权诉讼一审结束。法院判决指出,AI不属于民事实体,不能表达自己的意图。人工智能不是人类,无法对自己负责。那么为什么不陪伴提供AI服务的公司负责吗?中国首例人工智能“幻觉”案主审法官、杭州互联网法院一级法官肖翔:人工智能生成的内容可能不准确的原因有很多。最根本的原因是,在训练过程中,我们不是教AI模型理解事实,而是教它预测概率。因此,生成的内容不准确,这在目前的技术情况下是不可避免的。但这并不意味着服务提供商可以免除责任。如果服务提供者遵守了法定的注意义务、社会交往中的注意义务以及合同约定的注意义务,但生成的信息仍然不准确,通常无法认定服务提供者有过错。 AI 不符合《民法典》规定的民事事务。然而,人工智能生成的内容是否可以被视为服务提供商还需要确定。根据具体情况进行讨论。在本案的咨询和问答环节中,我不认为服务提供商是这个意思。此案的审理遇到了哪些困难?回顾本案的整个审理过程,这是审理过程中最艰难的一个,因为这是日本第一例涉及人工智能“幻觉”的案件。那部分是什么?肖宣:我个人认为最难的一点是人工智能技术创新、产业发展和相关主体合法权益之间的平衡。将合同外责任的一般原则或过失原则适用于人工智能侵权案件,可以为人工智能服务提供者提供更清晰的划界标准,使其能够在相对明确的标准内更好地设计和应用人工智能。 AI“幻觉”的原因是什么?在公众的认知中,人工智能是一种更先进的大脑。你可以知道更多,计算得更快,b我们更聪明,更少疾病和情绪,并且更稳定。然而,人工智能为何会产生“妄想”,又是什么原因造成的呢?中国社会科学院大学互联网法研究中心主任刘晓春:人工智能是一个“幻觉”。另一方面,生成式人工智能的底层技术原理和技术规则使其成为一个预测过程,而不是像人脑那样的可理解过程。另外,还和AI的训练过程有关,比如数据优化方面的训练过程。例如,如果人工智能具有“有趣的个性”,它实际上会想更好地为人们服务。用户在回答问题时,可以发挥想象力引发“幻觉”。如何平衡创新与人民权益保护的关系。未来,从监管角度看,如何在促进创新、保护人民权益、风险防范之间取得平衡?n 控制与促进发展?刘晓春:首先这个案例给出的结论或者说基本规则是非常好的。我们不要求行业提供100%“免费”的交付标准。在此基础上,行业才能更加自由地发展。另一方面,例如,在这种情况下,我们指的是不存在高风险的场景。换句话说,用户可以通过其他验证方法获取不准确的信息。因此,本案不属于高风险,不属于严格产品责任范围。法律程序和监管程序,包括法律领域、生活中存在的各种情况、个人财产的健康和保护、医疗健康、金融反转等。事实上,我们希望人工智能能够以更小的误差幅度提供更准确的答案。在这些申请过程中,规律可以区分基本模型和模型应用场景。基本模型,就像那些参与事件的模型一样,可以更快地行动,而无需承担如此重的责任。如果实施禁运,我们可以制定更明确的标准,例如针对特定行业的技术标准,以避免对公众造成更大的风险或伤害。从法律角度,如何主动应对人工智能“如意算盘”带来的风险? IA 技术的“幻觉”是 IA 技术逐渐快速发展的产物,还是 IA 技术发展的缺陷?如果未来出现第二种情况,从法律角度,如何更好地界定权利和责任,提前化解风险?刘晓春:从科技角度从逻辑上讲,如果技术的基本模式不发生根本性改变,人工智能的“幻象”就可以随着人工智能产业的发展而继续发展。并不是说不能完全杜绝,只是想要减少“幻象”就必须付出相应的成本。整个行业可能需要在某些领域投入更多资金,以限制或减少人工智能的“一厢情愿”。从法律上来讲,随着行业的发展,识别出一些关系到人民群众生命安全、财产安全等根本利益的领域,识别出这些高风险领域,其实是非常重要的。其次,当风险较高时,行业需要投入更多的资金来专门减少“幻觉”。与此同时,行业也需要采取一些预防措施,特别是在更敏感的领域,例如提供情感互动并对人工智能抱有基本信任的人们。此时,liabi的极限需要更明确地确定这一点,以便行业能够更好地减轻“一厢情愿”带来的风险。损害。 (央视新闻客户端)
新闻1+1丨日本首例AI“幻觉”侵权案。为什么判决是这样的?
2026年1月30日
0 Comments