在2025年的硅谷,裁员风暴依旧肆虐,而在这场风暴的漩涡中心,人工智能(AI)被众多企业CEO视为推动效率革命的利器,承载着重塑生产力的巨大期望。然而,对于广大基层员工来说,AI更多时候只是企业用来掩盖裁员真相的一块遮羞布。
尽管各大企业在财报中纷纷炫耀AI带来的成本节约成果,但为了保障AI系统的稳定运行和输出内容的准确无误,它们在后续维护、内容审核以及安全合规等方面的投入却与日俱增。一种全新的职业群体悄然崛起,他们专门负责纠正AI的失误,进行补救和收尾工作。这些企业原本希望通过AI削减的开支,正以另一种形式被重新投入,甚至超出了最初的预算。
近年来,AI工具迅速渗透到企业的各个角落,成为不可忽视的商业趋势。从OpenAI、Google Gemini到Anthropic Claude,各式各样的AI模型如雨后春笋般涌现,其功能也越来越贴近职场需求,如撰写文案、代码修改、客服话术生成等。Anthropic公司的CEO Dario Amodei曾预言,在未来1至5年内,将有一半的入门级岗位被AI取代,美国的失业率可能会飙升至10%至20%。
然而,BBC的最新报道却揭示了AI普及的另一番景象:许多企业在通过AI节省预算的同时,却不得不花费更多的资金来处理由AI引发的问题。例如,自由撰稿人Sarah Skidd接到了一项紧急任务,她需要修改一家内容代理公司网站上所有由AI生成的文案。这些文案平淡无奇,缺乏吸引力,反而损害了公司的品牌形象。她直言不讳地说:“一眼就能看出是AI写的,毫无说服力。”最终,客户不得不额外付费请她重写。
类似的情况也发生在开发和运营等技术领域。在英国,数字营销公司Create Designs的创始人Sophie Warner经常收到因ChatGPT误导而求助的客户。有客户按照AI教程修改代码,结果导致网站崩溃并遭到黑客攻击,损失惨重。她不得不额外收费来排查由AI引发的漏洞。
AI在客服领域的应用同样暴露出诸多问题。清华大学与广西电网企业的联合研究表明,引入AI助手后,虽然语音转录、信息回顾等流程得到了改进,但也出现了语音识别错误、口音识别困难、对话记录不完整等问题。客服人员不仅要学会与AI协作,还要纠正其错误、安抚愤怒的客户,AI的“帮倒忙”行为增加了他们的工作压力。
尽管企业引入AI的初衷是降本增效,但麦肯锡发布的《AI现状调查》显示,截至去年,虽然有78%的企业在至少一个业务环节中使用了AI,远高于2023年的55%,但成本平均降低不足10%,收入提升也不到5%。在这种明显的落差下,企业更注重展示AI的使用情况,而非其实际效果。AI往往被部署在要求不高的场景中,一旦进入正式流程,很容易出现理解偏差、决策漏洞或品牌事故。
可口可乐尝试用AI致敬经典圣诞广告的举动就是一个失败的例子。这条广告不仅未能唤起人们的怀旧情绪,反而遭到了广泛批评,被认为诡异且缺乏灵魂。更棘手的是,一旦AI出错,责任归属问题就变得棘手。在加拿大Moffatt v. Air Canada案中,法院裁定企业必须对AI聊天机器人的误导行为负责。
为了应对AI带来的风险,企业开始未雨绸缪。亚马逊正在招聘“AGI风险管理经理”,负责识别AI的技术与社会风险,并建立风险治理流程。同时,品牌方也开始感受到消费者对AI的反感情绪。多邻国、Shopify和Audible等企业因尝试用AI替代人类而遭受舆论压力。
在资本市场,AI取代人类的叙事被视为利好消息,但在消费市场,这一叙事却逐渐变成了负面信号。那些曾经依赖AI节省成本的企业,现在不得不花费巨资聘请人员来纠错、合规和进行风险控制。瑞典金融科技企业Klarna就是一个典型例子。在大力推行AI客服和翻译系统后,其用户体验急剧下降,最终不得不重新招聘客服员工。
事实证明,AI并未真正实现“自动化”,至少现在还远远没有达到这一程度。Anthropic与Andon Labs联合开展的自动商店实验也以失败告终。AI负责全部运营工作,但最终因采购大量无用物品、设立不合理折扣等行为导致项目破产。这再次证明,新技术在上线初期往往需要经历一段混乱期,才能逐渐趋于稳定。
企业当然可以利用AI提高工作效率,但必须充分考虑其可能带来的后果。只要AI出错仍需人来兜底,那么它所能取代的,将只是那些可替代的流程,而无法取代有判断力、负责任的人类。
下一篇:没有了