
ChatGPT这回真的有点“缺德”了。
最近大洋彼岸有出好戏:五角大楼拿着2亿美金合同,找AI公司“交朋友”,但有个硬性条件——我的“所有合法用途”,你都得支持,包括军事行动。
面对这诱惑,两家当红的AI公司,给出了两份截然不同的答案。
Anthropic,也就是做出Claude的那家,头很铁。其CEO达里奥·阿莫迪在合同上划了两道死线:第一,不准拿来对美国民众搞大规模监控;第二,不准用于无需人类插手的全自动杀人武器。
哪怕生意要黄,压力山大,Anthropic也没松口,理由很直白:“我们不能昧着良心答应他们的要求。”
这一举动给Anthropic圈粉无数。
另一边,OpenAI的动作堪称“光速”。就在Anthropic拒签几小时后,它宣布与五角大楼达成协议,同意其模型接入机密军事网络。虽然后来山姆·奥特曼找补说“步子迈急了,观感不好”。但这“趁你病,要你命”的抢单操作,已经被广泛解读为:在钞票面前,价值观可以先放一放。
用户们随即用指尖投了票,结果相当真实:
消息一出,ChatGPT在美国的App单日卸载量飙了近300%,一星差评暴增775%。公司内部也炸了锅,员工联名抗议,信任碎了一地。
而Anthropic的Claude,下载量瞬间冲上苹果商店免费榜榜首,在多国登顶。更戏剧性的是,一群来自OpenAI、谷歌等公司的员工公开声援,口号很响亮:“AI不该成为战争工具。”
显然,这早已不是一场简单的商业竞争,而成了大型科技伦理真人秀。五角大楼想要一把“无限制”的AI利器,从纯技术供货商角度看,似乎没啥毛病。但当一家企业做的是一款亿万人使用的公众产品时,技术就不再是技术,而是责任。
产品即选择,代码即态度。人工智能公司训练模型的数据里藏着什么偏见?隐私条款给用户挖了多少坑?交互设计是诱导上瘾还是促进健康?每一个细节,都是团队价值观的无声发言。这就像共享单车,尽管解决了“最后一公里”的方便,但运营方也应该想到面对“堵了盲道、扔进河里”的负面问题。
在AI改变用户习惯,搅动市场格局的时候,随时能看到不同企业做事,带有不同的价值观。
在AI手机助手的赛道也能看到路径区别。国内有些手机厂商路子比较“野”,直接给AI开通系统最高权限,通过视觉技术读取屏幕信息、上传云端,让AI外挂式操作,美其名曰“全能服务”,实则“一键裸奔”,吓得银行、支付App纷纷拉闸防御。
而另一边的谷歌和三星,走了一条笨路:不给万能钥匙,而是给开发者造工具、定协议,吸引应用们接入。安卓生态的负责人自己也承认:“想把安卓从手机系统变成智能系统,最难搞定的就是开发者们。”
手握生杀大权,却选择不破门而入,而是自己多造几扇窗。这路,走得慢,但走得稳。
技术可以中立,但是开发产品和推出用户服务须得有价值观。比如那个火遍全球的开源项目openclaw,虽然创始人天天喊“注意权限风险”,但技术极客的世界,包容度总是很高。可一旦云服务大厂把它打包成商业产品服务,态度也变得谨慎了——首先谈的就是做到防护安全。
技术可以很“野”,但生意必须得“正”。
从Anthropic的拒签,到谷歌的“造窗”,从某些产品的“走捷径”,到另一些公司的“守边界”,AI浪潮之巅的众生相,像极了每一轮技术革命的历史重演。总有人选择在暴利面前贪婪走险,也总有人眼光长远,尊重用户和伙伴。
商业这场马拉松,最终赢的,往往是那些在诱惑面前能刹住车、愿意为长远价值放弃眼前快钱的人。在AI这个可能定义人类未来的岔路口,选那条“难而正确”的路,或许不只是商业智慧,更是一种对未来的“投保”。
毕竟,技术本身没有道德,但创造和使用它的人,得有。