谷歌正面临其搜索体验重构以来最严峻的质量信任危机。尽管“AI 概述”(AI Overviews)已成为谷歌搜索的核心,但频发的“幻觉”现象——包括编造事实、前后矛盾以及在医疗等关键领域提供错误建议,迫使这家科技巨头不得不采取紧急补救措施。
根据最新的招聘信息,谷歌正在招募“AI 答案质量工程师”,专门负责优化 AI 模式及搜索结果页(SRP)下的生成式答案。招聘要求显示,这些工程师将致力于解决复杂查询下的 AI 表现,确保在基础设施扩展的同时,维持信息的准确性。这被外界视为谷歌首次间接承认其 AI 概述功能在可靠性上存在显著缺陷。
实际测试揭示了问题的严重性:在针对同一初创公司估值的两次提问中,AI 概述给出了从400万到7000万美元不等且完全错误的引用答案。更为严重的是,《卫报》近期披露,谷歌 AI 曾在针对胰腺癌等重疾提供健康建议时,给出了与医疗标准完全相反、甚至可能致命的指导。
此外,谷歌近期在 Discover 信息流中测试的 AI 重写新闻标题功能,也因产生误导性“标题党”内容而遭到出版商的强烈抨击。随着用户对谷歌搜索结果的
若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
