六个关于AI战略的问题

有效的人工智能实施需要一种以结果为中心的方法,该方法由人工智能就绪的数据作支持,并与组织的整体风险偏好保持一致。以下是如何确保您的人工智能之旅朝着正确的方向发展。

如果研究是正确的,大多数人工智能计划都达不到目标。

根据最近的多份报告,这些举措无法扩展、解决问题、满足客户需求或提供价值。

值得注意的是麻省理工学院的 2025 年人工智能商业状况报告,该报告得出的结论是,尽管企业在生成式人工智能方面投资了 30 至 400 亿美元,但 95% 的组织仍获得零回报。

然而,也有人工智能的成功案例,其中组织部署了人工智能,并在效率、生产力、市场差异化等方面看到了足够的可量化回报,从而宣布获胜。

例如,研究公司 Gartner 在 2025 年的一项调查中发现,“人工智能成熟度高的组织中 45% 的领导者表示,他们的人工智能计划将持续生产三年或更长时间,以确保持续的影响和价值。

那些研究这些人工智能成功的人以及那些取得此类胜利的高管表示,成功的人工智能战略涉及许多因素。

“人工智能的巨大潜在商业价值不会自发实现,”Gartner 在其 2025 年成功人工智能战略的支柱报告中指出。“人工智能领导者应该引导他们的组织走向一个时代,在这个时代,人工智能不仅创造有形的商业价值,而且超越成为关键的竞争差异化因素和行业颠覆者。”

研究人员、顾问和领先的首席信息官表示,成功的人工智能战略没有单一的公式,这并不奇怪。相反,每个组织都必须确定自己的道路。希望确定其人工智能战略正确方向的首席信息官应该问自己和他们的组织以下关键问题。

1. 我们是否专注于我们希望人工智能带来的结果?

人工智能提供了大量机会来重塑工作方式以及如何与客户互动。

为了避免分散的方法,首席信息官需要问自己和他们的同事,他们的人工智能计划管道是否与他们希望为企业实现的结果保持一致,他说

Kathy Kay,Principal Financial Group执行副总裁兼首席信息官。否则,她说,“我们只会让人工智能蔓延,技术债务增加。”

Kay表示,高管应明确表达他们希望实现的具体成果,无论是提高效率、改善客户体验,还是加快业务增长,并确保这些目标与业务目标保持一致。

她解释说,高管们不应该像经常做的那样专注于使用人工智能来重塑流程或任务,因为这样做可能无法带来预期的结果。

例如,投资人工智能来协助或接管电子邮件的撰写——生成式人工智能在完成任务方面的一种流行用途。这似乎是唾手可得的成果,可以节省员工的时间,从而带来投资回报率。但是,在电子邮件不会占用太多员工时间或提供任何差异化价值的组织中,将人工智能应用于该任务可能不会产生任何具有可衡量价值的结果。

Kay承认,关注结果而非重做任务是一个微妙的区别,但她强调这是一个重要的区别,因为它迫使高管判断他们的AI计划是否能带来真正的业务价值。

另一种表达方式是问:“我们是否知道我们试图用AI战略解决的问题,这样我们就不会爱上解决方案?”Kay说。

根据其他专家和从业者的看法,CIO还可以这样表述:“AI战略将满足客户的需求和需求是什么?”以及“我们的AI战略带来了什么价值?”以及“我们的工作如何与业务优先事项保持一致?”

Protiviti 技术咨询业务的董事总经理 Peter Mottram 表示:“CIO 必须有一个能够带来价值的应用场景,并通过关键绩效指标(KPI)和指标来衡量其是否实现了预期成果。”

2. 我们对人工智能的风险承受能力如何——我们的战略如何与之保持一致?

首席信息官及其高管同事认识到人工智能会带来风险,但道明银行执行副总裁兼分析、情报和人工智能主管 Ted Paris 表示,仅仅阐明这些风险是不够的。相反,他说,最高管理层需要问,“这个 [人工智能计划] 在我们的风险偏好中处于什么位置?我们对这个特定的解决方案以及我们为现有用例部署它的能力有何看法?我们必须遵守什么才能部署它?

研究表明,许多高管对此类问题没有很好的答案。

根据专业服务公司安永2025年10月发布的负责任人工智能脉冲调查,99%的受访公司报告因人工智能相关风险而遭受财务损失,其中64%的损失超过100万美元。调查还发现,只有12%的高管领导能够识别五个关键AI风险的适当控制措施。此外,调查显示39%的员工对自己负责任地使用人工智能并不有信心。

安永在其报告中指出,“投资于人工监督和安全提示是关键。

Kay 建议制定风险评估流程和缓解流程,而 Paris 建议 CIO 与风险、法律、隐私和安全领导者合作创建一个风险框架,以指导识别风险并设计适当的控制级别。

“有一套护栏需要集中实施,需要遵守,为某些类型的流程引入自主权和代理必须正确的原则,并且需要渗透到整个组织,以确保在整个组织中负责任地使用人工智能,”专业服务公司德勤负责任的美国人工智能和工程战略与服务负责人 Faruk Muratovic 补充道。

3. 我们是否在创新和信任之间取得了适当的平衡?

金融公司 Vanguard 的负责人兼咨询和财富管理技术主管查尔斯·汤普森 (Charles Thompson) 表示,围绕信任的问题也很重要,并补充说,没有信任的人工智能创新是不可持续的。

他解释道:“当组织将人工智能嵌入产品、服务和运营时,必须在内外强化信心。”“对于外部客户,人工智能必须提供透明度、安全性和公平性。对于内部客户/员工,人工智能必须是可解释、可靠且旨在支持而非取代人类判断的。”

他说,首席信息官“必须在速度与管理之间取得平衡,在保护数据完整性、客户隐私和品牌声誉的同时推动进步”。“这是一种微妙但至关重要的平衡。”

汤普森补充道:“如果创新感到受到风险规避的限制,请重新调整以允许在明确治理的情况下进行受控实验。如果实验超过监督,请暂停以加强问责制和透明度框架。

他还认为,CIO需要向客户和员工清晰传达人工智能的使用情况及其为何受益,以便理解人工智能在流程中的作用并学习信任它。

4. 我们的数据战略真的准备好迎接人工智能了吗?

SS&C Technologies 首席信息官兼首席技术官 Anthony Caiafa 表示,随着组织制定人工智能战略并追求特定的人工智能用途,他们需要确定哪些数据来来去去,以及他们是否正确地管理这些数据。

“你知道你需要的数据集吗?您知道要与之交互的数据集吗?你必须担心数据局部性问题吗?凯亚法问道。

Caiafa 说,这些只是一个开始,并指出 CIO 在推进 AI 计划时还需要回答数十个与数据相关的问题。

例如,首席信息官应该询问他们的组织是否有权使用特定人工智能计划所需的数据。正如 Caiafa 所解释的那样,组织可能手头有特定人工智能用例所需的客户数据,但如果他们使用这些数据,可能会违反监管或合同条款。

尽管数据准备至关重要,但大多数企业领导者(包括首席信息官)在开始人工智能之旅之前并没有他们应该得到的答案。根据数据安全供应商 Immuta 的 2025 年数据安全状况报告,55% 的数据领导者表示,他们的数据安全策略跟不上人工智能的发展步伐。该报告还指出,64% 的数据领导者在为授权用户提供及时、安全的数据访问方面面临重大挑战。

当然,首席信息官必须与其组织的数据领导者合作,以克服这一挑战。但 Caiafa 表示,他们还需要企业领导者思考和回答数据就绪问题,因为企业领导者应该拥有有利于其部门的人工智能用例,并且应该了解并拥有实现成功结果所需的数据。

Muratovic 表示,对于大多数组织来说,围绕数据准备的问题迫在眉睫。

“采用的最大障碍之一是数据尚未准备好,或者没有正确合成或整理,因此人工智能工具可以利用它,”他说。“因此,首席信息官需要问,’我们将数据要求和可访问性与我们的人工智能计划保持一致的策略是什么?’他们不仅需要考虑数据,还需要考虑数据基础设施,无论数据是位于本地还是需要上云,或者人工智能用例是您需要遣返到本地以减少延迟或成本的用例。

5. 我们如何保障企业中人工智能的使用?

Booz Allen Hamilton 商业人工智能解决方案副总裁 Matt Costello 表示,企业 AI 的使用正在扩大组织必须保护和防御的攻击面,CIO 有责任询问防御策略,而不仅仅是让 CISO 在事后加强安全性。

“使用这些工具,安全性是一个真正的挑战,”他补充道。

这也是当务之急,因为组织正在看到他们的人工智能工具受到攻击。

在 Gartner 2025 年春季的一项调查中,29% 的网络安全领导者表示,他们的组织在过去 12 个月内经历过针对企业生成式 AI 应用程序基础设施的攻击,32% 的领导者表示,他们在同一时间段内经历了对利用应用程序提示的 AI 应用程序的攻击。

Gartner在发布调查结果时写道:“聊天机器人助手容易受到各种对抗性提示技术的攻击,比如攻击者生成提示,控大型语言模型(LLM)或多模态模型,从而产生偏见或恶意输出。”

科斯特洛表示,虽然金融等高度监管行业的组织更可能拥有成熟的人工智能安全策略,但大多数其他行业的组织仍在努力理解威胁及其应对安全措施。

他补充说,首席信息官还必须询问其人工智能工具的供应链,包括嵌入在 SaaS 产品中的人工智能功能,以及这些风险存在的安全风险。

“首席信息官还必须询问他们是否正在构建具有安全管道的人工智能工具,”他说,并解释说人工智能平台与任何其他软件一样容易受到 Apache Log4j 漏洞式问题的影响。

“首席信息官需要将目光投向组织外部,看看人工智能从侧门进入,这可能会带来安全风险,”他补充道,并指出安全、法律和风险团队都应该参与询问和回答有关人工智能安全需求的问题。

6. 我们想为人工智能分配多少工作和决策?

随着人工智能的进步和组织越来越熟练地使用它,甫瀚咨询的 Mottram 表示,首席信息官应该要求他们的同事考虑将多少工作和决策从人类手中夺走,转而分配给人工智能?

“你必须考虑控制权在哪里,你想给机器多少,你想要多少制衡,”他说,并补充说,随着组织开始加大对能够自行做出和执行决策的代理人工智能系统进行更多投资,这种提问和回答将变得越来越重要。

若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

此图片的alt属性为空;文件名为image-82.png

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

此图片的alt属性为空;文件名为image-83.png

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

此图片的alt属性为空;文件名为image-84.png

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

此图片的alt属性为空;文件名为image-12.png

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。http://www.szhzxw.cn/106330.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部