人工智能提供的回答基于“公具”知识库中的工具内容,回答的质量很大程度上取决于你输入问题的答案是否包含在我们已有的知识库中。同时,人工智能生成的内容仍可能包含错误和幻觉,尽管我们会持续不断地校正和调优有关参数。

技术的快速发展意味着我们推荐和测试的部分工具的有效性和准确性可能会迅速发生变化,因此你使用的实际结果可能与我们的测试结果不完全匹配。

没有能解决一切问题的完美工具,请根据实际情况综合使用多种工具和验证方法,我们推荐的工具应被视为建议性的而非决定性的。

我们的项目提供的只是有关事实核查工具和方法的见解,而不能直接针对某一则传言或爆款视频作出真假的判定(已收入知识库中的案例除外)——虽然这是一种最为理想的产品方案。我们不是人工智能怀疑论者,人工智能目前在某些特定情况下——比如甄别已经记录在案的错误信息时表现突出,但其出现的幻觉让我们至少在目前不能直接依赖其来获取准确信息。发表在《美国国家科学院院刊》上的一项研究表明,当人工智能大模型在事实核查中犯错时,实际上会降低人们对准确信息的信任,同时增加人们对错误信息的信任。