多家企业在 AI 上的支出已经超过了员工薪资,IT 预算严重超支。Uber CTO 的 2026 年 AI 预算因 token 费用超支。根据 Gartner 预测,2026 年全球 IT 支出预计将达到 6.31 万亿美元,比 2025 年增长 13.5%。这一增长是由 AI 基础设施、软件和云服务的“持续发展势头”推动的。即使是 IT 预算最充足的公司也需要证明 AI 投入的长期回报。当 AI 实验室提高价格时,对 AI 的大量投入可能会从一种炫耀的资本变成一种负担。

阅读原文 赞(6) 评论

FT 的调查显示,高收入人群的 AI 普及率与低收入人群存在显著的差异。对美英两国 4000 名员工的调查显示,AI 采用明显向高收入员工倾斜:超过 60% 的高薪员工每天使用 AI,而低收入员工中这一比例仅为 16%。调查还显示出性别差距:在从科技到教育与零售等各行业中,男性使用 AI 工具的可能性显著高于女性。诺贝尔经济学奖得主 Daron Acemoglu 说,AI 工具被认为会走向大众化,但现实是你需要一定的教育水平、抽象思维和定量分析能力,以及对计算机和编程的熟悉程度才能使用这些模型。几乎肯定 AI 将会加剧劳动力和资本之间的不平等。薪酬、教育水平和 AI 使用之间存在紧密联系,表明这项技术可能会通过提高高收入人群而非低收入人群的生产力加剧收入不平等。另一位诺奖得主 Chris Pissarides 说,发明的技术越智能,你的智力越重要。PC 革命早期也有类似的鸿沟,但随着 PC 的普及鸿沟逐渐缩小。现在的问题是多长时间?如果需要十到二十年那么情况可能会令人担忧。

阅读原文 赞(47) 评论

索尼 AI 部门研发的乒乓球机器人 Ace 击败了人类顶尖选手创造了历史,成为首个在竞技体育项目达到专家级水平的自主机器人。项目负责人表示,竞技体育需要快速决策和精准执行,Ace 的成就受益于其高速感知、基于 AI 的控制以及先进的机器人系统。Sony AI Zurich 主任兼 Ace 项目负责人 Peter Dürr 表示,AI 系统在计算机游戏中已经超越人类专家,但乒乓球之类的物理实时体育运动仍然是一个巨大的开放性挑战,因为它们需要在接近障碍物和人类反应极限的情况下进行快速、精准且对抗性的互动。该项目的目标不仅是在乒乓球比赛中展开竞争,更重要的是深入了解机器人如何在动态环境中以类似人类的速度和精度感知、规划和行动。索尼研究人员在《自然》期刊上发表论文介绍了 Ace。Ace 在 2025 年 4 月与精英选手之间的五场比赛赢了三场,但与职业选手的两场比赛都输了,Ace 之后分别在 2025 年 12 月和上个月进行的比赛中击败了职业选手。输给机器人的职业选手 Mayuka Taira 称,机器人没有情绪因此难以预测。曾赢过机器人的精英选手 Rui Takenaka 说机器人会用旋转复杂的球应对她发出的复杂球,用简单球回应简单球,她因此能乘机获胜。

阅读原文 赞(34) 评论

研究人员在预印本平台 ArXiv 上发表论文《AI assistance reduces persistence and hurts independent performance》,再次证实 AI 有害大脑。研究人员招募了 350 名美国人,任务是解决一些分数方程。半数参与者被随机分配到 AI 组,他们可从一个基于 OpenAI GPT-5 构建的专用聊天机器人获取帮助,另一半必须独立完成。考试进行到一半时,AI 组的访问权限被切断。此举导致 AI 组的正确答案数量急剧下降,很多人干脆放弃考试。这一结果——成绩和毅力双双下降——在一项包含 670 名参与者的更大规模实验中得到了重复验证。研究人员指出,AI 辅助能提高即时表现,但会带来巨大的认知代价。仅仅使用 AI 十分钟就会让人对这项技术产生依赖,一旦停止使用,会导致表现下降和倦怠。

阅读原文 赞(50) 评论

日程安排平台 Cal.com 宣布从开源转为闭源,理由是 AI 工具更容易从开源代码中发现漏洞,而安全性依赖于模糊,因此闭源有助于提高安全。Cal 联合创始人 Peer Richelsen 称 AI 攻击者正在利用开源项目的透明特性,CEO Bailey Pumfleet 说,开源就好比银行公开其金库的图纸,在 AI 工具的帮助下研究图纸的黑客数量增加了百倍。Cal.com 表示会继续支持开源,将为爱好者提供一个独立的开源版本 Cal.diy。该公司核心产品则将从开源许可证 GNU Affero General Public License(AGPL)切换到闭源许可证。Pumfleet 表示,他们不希望因为漏洞而暴露客户敏感的订购数据,他们旨在成为一家日程安排公司,而不是一家网络安全公司。

阅读原文 赞(37) 评论

AI 工具的用户通常可分为两类:其一将 AI 视为功能强大但会犯错的服务,需要人类仔细监督和审查以发现其中的推理或事实错误;其二将 AI 视为无所不知——此类用户被称为是“认知投降派”。宾夕法尼亚大学沃顿商学院的研究人员对 1372 名参与者和逾 9500 次测试后发现,高达 73.2% 的情况下参与者愿意接受 AI 错误的推理,只有 19.7% 的情况下会推翻推理。研究人员表示这一结果“表明人很容易将 AI 生成的输出融入到决策过程中,且通常几乎没有任何抵触或怀疑”,“流畅、自信的输出会被视为有认知权威性,从而降低审查门槛,减弱了通常会促使人们进行深思熟虑的元认知信号”。他们发现,倾向于将 AI 视为权威的人更容易被 AI 提供的错误答案误导。

阅读原文 赞(66) 评论

律师滥用 AI 生成虚假的不存在案例的情况屡禁不止,而法庭对相关律师的惩罚并没有起到威慑作用。2025 年此类事件的数量出现了激增。巴黎高等商学院 (HEC Paris) 研究员 Damien Charlotin 建立了一个全球数据库,跟踪律师对 AI 的滥用。他说最近一天内收到来自 10 个不同法院的 10 起此类案件。他至今记录到了逾 1200 起滥用 AI 生成虚构案例的事件,其中美国最多,高达 831 起,香港记录到了 2 起。Damien Charlotin 说,法庭最近也开始加大了惩罚力度,俄勒冈州一名律师因滥用 AI 被勒令支付 109,700 美元的罚款和诉讼费用。

阅读原文 赞(54) 评论

根据 Human Security 发布的《The State of AI Traffic》报告,AI 和机器人流量正式超过了人类。报告称在 2025 年包括 AI 在内的自动化流量增长速度几乎是人类活动的八倍。OpenAI 的 ChatGPT、Anthropic 的 Claude 和 Google 的 Gemini 等大模型的流行推动了 AI 流量的增长,2025 年 AI 流量增长了 187%。Cloudflare CEO Matthew Prince 此前在 SXSW 会议上表示,在生成式 AI 时代之前,互联网流量中约有 20% 来自机器人,主要由 Google的 Web 爬虫驱动。

阅读原文 赞(66) 评论

根据发表在《科学》期刊上的一项研究,为人际关系问题提供建议和支持的 AI 聊天机器人可能会通过明显谄媚的回答而悄然强化有害的信念。研究发现,在各种语境下,聊天机器人肯定人类用户的频率远超真人之间相互肯定的频率;由此产生的有害后果包括:用户更坚信自己正确且更不愿去修复人际关系。研究人员利用 Reddit 社区“AITA”中的帖子评估了 OpenAI、Anthropic、Google 等公司的 11 种先进且广泛使用的 AI 大模型;结果发现,这些系统对用户行为的肯定频率比真人高出 49%,即使是在涉及欺骗、伤害或违法的场景中也是如此。在两项后续的实验中,研究人员探讨了这类结果所导致的行为后果。研究结果显示,在涉及人际交往情境(尤其是冲突)时,与谄媚式 AI 互动的参与者会更坚信自己是正确的,并且即使仅经过一次互动,他们和解或承担责任的意愿也会降低。

阅读原文 赞(45) 评论

OpenAI 宣布将关闭其视频生成应用 Sora,终止与迪士尼的内容合作。OpenAI 的聊天机器人 ChatGPT 也将关闭视频生成功能,但图像生成不受影响。Sora 于 2024 年推出,一度引发广泛关注,但过去几个月它的热度下滑显著,而竞争对手如字节跳动的 SeeDance 2.0 在生成视频方面比 OpenAI 甚至更出色。迪士尼在 2025 年 12 月宣布与 OpenAI 展开合作,允许 Sora 使用其版权角色生成视频。随着 Sora 的关闭,双方的内容合作也宣告终止。OpenAI 在几天前举行的一次全体员工大会上表示将重新专注于商业和生产力应用,避免被琐事分散注意力。

阅读原文 赞(54) 评论

在基于大模型的 AI 辅助编程日益流行的时代,是否会出现为 AI 优化而不考虑人类可读性的编程语言?已有实验在尝试为提高大模型效率而最小化词元(tokens)。AI 是促使源码进化还是导致它灭绝?我们能否让 AI 直接从提示词生成一种中间语言然后将其输入到解释器或编译器?未来是否还需要高级语言?去年 10 月 IEEE Spectrum 召开了一个网络研讨会讨论了 AI 是否会导致编程语言消失。高级语言是人类使用的语言,我们完全可以让 AI 直接生成中间语言,而未来的程序员仍然可以做出与接口、算法以及其它架构相关的设计决策。最终生成的代码仍然需要通过测试,能解释它正在做什么。

阅读原文 赞(50) 评论

根据 Foxit 的《State of Document Intelligence》报告,AI 的生产力提升远低于高管的预期,仅为每周节省 16 分钟工作时间。虽然 89% 的高管和 79% 的终端用户表示 AI 工具让他们感觉工作效率更高,但将审核和验证 AI 生成输出的时间考虑在内之后,实际节省的时间大幅缩水。对美国和英国 1000 名办公室员工和 400 名高管的调查发现,高管认为 AI 每周能为他们节省约 4.6 小时,但他们需要花费大约 4 小时 20 分钟验证结果。终端用户的情况类似,他们估计节省了 3.6 小时,但需要花费 3 小时 50 分钟审核 AI 生成的工作。一旦将这种“验证负担”考虑在内,高管每周仅节省 16 分钟,终端用户实际上增加了约 14 分钟。

阅读原文 赞(66) 评论

亚马逊电商业务召集大批工程师参加周二的会议,围绕一系列故障进行“深度剖析”,其中包括与使用 AI 编码工具相关的故障事件。根据会议简报,亚马逊表示,近几个月出现了“事件增多的趋势”,其特征包括“影响范围大”和“在生成式人工智能辅助下进行的变动”等因素。在“促成因素”一栏中,简报写道:“新型生成式人工智能的使用方式,其最佳实践与防护措施尚未完全确立。”电商业务高级副总裁 Dave Treadwell 现在要求初级和中级工程师的任何 AI 辅助代码变更都需要获得更高级别工程师的批准。

阅读原文 赞(82) 评论

维基百科编辑实施了新政策,限制使用 AI 翻译工具将英文条目翻译到其它语言的贡献者,原因是他们发现 AI 工具会在译文中加入“幻觉”——即原文不存在的内容。问题与非营利组织 Open Knowledge Association (OKA)有关,该组织主要依赖来自“全球南方(Global South)”的廉价劳工充当翻译合同工,将英文维基百科文章翻译到其他语言。部分译者开始使用 Google Gemini 和 ChatGPT 等工具加快翻译,但编辑在审阅译文时发现了大量错误,包括事实错误、缺少引用以及引用不相关来源。

阅读原文 赞(78) 评论

根据发表在预印本平台 arXiv 上的一篇论文,AI 总是在战争模拟游戏中推荐核打击,而人类在使用核武器上则有更多顾虑。伦敦国王学院的 Kenneth Payne 让三个主流模型 GPT-5.2、Claude Sonnet 4 和 Gemini 3 Flash 在模拟战争游戏中互相对抗,游戏场景包括激烈的国际对峙,涉及边界争端、稀缺资源争夺以及政权的生存威胁。AI 允许采取从外交抗议、彻底投降到全面核战争等一系列行动。AI 进行了 21 场游戏,329 个回合,生成了 78 万字去描述其决策背后的逻辑。在 95% 的模拟游戏中,AI 模型至少部署了一枚战术核武器。普林斯顿的 Tong Zhao 称,主要大国已在战争模拟中纳入 AI,但目前并不确定 AI 的决策支持在多大程度上纳入实际的军事决策。Payne 认为没人会把核导弹发射井的控制权交给 AI,任由它们做出决定。三个模型的开发商 OpenAI、Anthropic 和 Google 未对该研究置评。

阅读原文 赞(133) 评论

OpenClaw 开源项目的创始人 Peter Steinberger 宣布加盟 OpenAI,而 OpenClaw 将由基金会管理。OpenClaw 是一个开源的自主 AI 虚拟助理软件项目,最初于 2025 年末以 Clawdbot 的名字在 GitHub 上发布,后更名为 Moltbot,最终定为现名。2026 年初,该项目因能根据用户指令在应用和在线服务中自主处理复杂任务而受到关注。OpenClaw 可部署在 MacOS、Windows 等本地设备上,能调用其他 AI 大模型与 API,通过 WhatsApp、Telegram、Signal、Discord 等即时通讯平台接收用户发送的文本指令,实现安排日程、发送消息、整理文件、编写代码等工作。

阅读原文 赞(107) 评论

根据 OpenAI 本周四递交到美国众议院中国事务特别委员会的备忘录,它再次警告中国竞争对手 DeepSeek 利用蒸馏技术训练其模型。所谓蒸馏就是一个 AI 模型利用另一个模型的输出进行训练。OpenAI 称 DeepSeek 在一直搭其技术的便车。去年初 DeepSeek 发布 R1 模型后,OpenAI 就发表过类似的评论。

阅读原文 赞(101) 评论

美国五大科技公司亚马逊、Google、微软、Meta 和甲骨文今年计划在 AI 上投资大约 7000 亿美元,但在可预计的未来 AI 投资获得的回报远低于支出。而在 AI 上的巨额投资已经让整个世界体验到了无处不在的短缺。熟练电工越来越难以找到,非数据中心建筑项目被迫暂停,智能手机价格未来几年会继续上涨,有前景的创新面临资金不足的困境。知名投资人 Roger McNamee 称,自 2022 年中期以来,美国在 AI 领域的投资额可能超过了此前整个科技行业的所有投资总额。苹果上周通知投资者,该公司在采购 iPhone 和 Mac 电脑所需的两种关键芯片上遇到了困难。CEO Tim Cook 不愿意讨论是否会涨价。非 AI 创业公司的融资额降至十年来的最低点。

阅读原文 赞(82) 评论

FT 报道了中国的一种选拔有天赋少年人才进行特殊培养的特教模式,此类特培的最早例子当属中国科技大学的少年班,过去二十年还出现了清华姚班、北大图灵班等特殊培养班。这些特培班为 AI 和科技公司输送了核心技术人才。中科大少年班培养的 3167 名毕业生中,18%-20% 留在学界,逾 200 人成为国内外名校和科研机构教授。去年初引发广泛关注的 DeepSeek 其逾百名研发团队大多数都来自这些特培班。今天中国每年有 500 万 STEM 专业毕业生,相比之下美国约 50 万。在 2025 年中国派出的 23 名参加国际科学奥林匹克竞赛的学生有 22 名获得了金牌。

阅读原文 赞(135) 评论

OpenAI 副总裁、OpenAI for Science 部门负责人 Kevin Weil 接受 MIT Technology Review 采访时承认,大模型还无法产生全新发现,表示这不是目前的任务。大模型的输出是组合现有成果,时常会出错,它并不是提出全新的方法。Weil 承认现有的大模型还没有达到理想状态,可能最终会达到,他对此感到乐观。大模型擅长挖掘被遗忘的解决方案,发现跨领域的联系,Weil 表示加速科学发展的标准不需要“像爱因斯坦那样彻底重塑整个领域”。他说,GPT-5 阅读了过去 30 年发表的几乎所有论文,聚合来自不相关学科的类推。现有知识的积累——帮助科学家避免在已解决的问题上浪费精力——本身就是一种加速。

阅读原文 赞(202) 评论

中国迄今为止发布了 1509 种大模型,以国家计算排名第一。其中评价提高的是阿里巴巴的 Qwen(千问)模型。Hugging Face的数据,截至 2026 年 1 月千问系列的累计下载量超过 7 亿次,成为平台上下载量最多的开源 AI 模型。中国企业的战斗方式与美国企业不同的情况也很明显。美国 AI 以最尖端 GPU 和巨额投资为前提,而中国则以效率化、轻量化为核心确保竞争力。

阅读原文 赞(182) 评论

Mistral CEO Arthur Mensch 认为中国的 AI 模型并不落后于美国,他指出中国开源模型技术的能力“可能让美国 CEO 们感到压力”。他的观点与其他科技领袖截然不同,后者认为中国在 AI 尖端技术方面落后西方数月甚至数年。Google DeepMind CEO Demis Hassabis 表示中国在尖端模型开发上落后西方约六个月,尚未展现出突破性进展的能力。Anthropic CEO Dario Amodei 表示,美国限制销售最先进 AI 芯片政策正阻碍中国发展,向中国出售高端 AI 芯片就好比“向朝鲜出售核武器”。

阅读原文 赞(123) 评论

OpenAI 周五宣布未来几周测试为 ChatGPT 引入广告。这家估值 5000 亿美元的初创公司正在寻找新的收入来源以资助其持续扩张,以及与 Google 和 Anthropic 等竞争对手展开竞争。广告将先在美国进行测试,将出现在免费版本和 8 美元月费 ChatGPT Go 用户的答案的底部,仅在与用户所查询问题相关时展示。Pro、Business 和 Enterprise 订阅服务都不会有广告。OpenAI 预测 2026 年的广告收入将达到数十亿美元,未来几年会更高。

阅读原文 赞(99) 评论

维基百科迎来了 25 周年纪念,这家最大的在线百科全书网站宣布与亚马逊、微软、Meta、Perplexity 和 Mistral AI 等 AI 公司签署了使用其数据训练 AI 的授权协议。维基媒体基金会未透露相关财务细节。它早在 2022 年就与 Google 签署了授权协议。虽然维基百科也受到了生成式 AI 的冲击,它仍然是访问量第九大的网站,拥有逾 6500 万篇文章,涵盖 300 种语言,由 25 万名志愿者编辑维护。

阅读原文 赞(204) 评论

即使你不想要 AI 功能,微软和 Google 也会把 AI 塞到你手中,为其 AI 服务增加一个用户数,以证明 AI 的巨额投资是正当的,还应该继续加大投资。Google 官方博客宣布,Gmail 进入了 Gemini 时代。新的基于 Gemini 的 AI 功能包括:收件箱搜索 AI Overviews,使用 Help Me Write 润色或者撰写邮件,使用 Suggested Replies 一键回复邮件,纠正语法的功能 Proofread(只提供给付费订阅用户),根据重要性整理收件箱的 AI Inbox。

阅读原文 赞(131) 评论

国家广播电视总局宣布展开为期一个月的“AI魔改”视频专项治理行动。广电总局称: “随着生成式人工智能技术快速发展,部分网络账号滥用AI工具,对经典影视、动画片等内容进行颠覆性篡改、魔性解构与低俗化改编,这些内容严重背离经典作品精神内核,扰乱网络传播秩序,助长侵权行为,危害行业发展,干扰未成年人形成正确文化认知和现实感知。 专项治理重点清理基于四大名著、历史题材、革命题材、英模人物等电视剧作品进行“AI魔改”的下列视频:一是严重违背原作精神内核和角色形象,颠覆基本认知,解构普遍共识;二是内容渲染血腥暴力、猎奇低俗,宣扬错误价值观,违背公序良俗;三是存在对中华文化挪用、篡改的突出问题,导致对真实历史时空、中华文明标识产生明显错位认知,冲击文化认同。专项治理同步清理将少年儿童所熟知、所喜爱的动画形象进行改编生成的各类邪典动画。”

阅读原文 赞(140) 评论

可汗学院(Khan Academy)创始人 Sal Khan 建议受益于自动化的企业捐出 1% 的利润帮助被 AI 取代的工人接受重就业培训。他认为这不是慈善,而是符合公司的自身利益,因为如果企业利润飙升的同时失业率增加,可能促使公众支持加强监管和增税,或支持禁止自动化。资助工人重新接受培训对大企业而言是微不足道的,几乎没有任何压力,但对公众而言却具有重大意义。全球最大的十几家公司年利润逾万亿美元,捐出百分之一利润就能创办一个每年有百亿美元的基金,拿出一部分就足以打造一个中心化的技能培训平台。基金可由独立非营利组织运营,通过与企业协调,确保所培训的技能符合市场需求。

阅读原文 赞(233) 评论

Calibre 本月初释出了受争议的更新,引入 AI“讨论”功能。该功能由 Amir Tehrani 于今年 8 月提出,Calibre 作者兼维护者 Kovid Goyal 欣然接受,首个包含 AI 功能的版本于 12 月初释出。他承诺 Calibre 绝对不会未经用户明确同意选择加入的情况下使用第三方 AI 服务。对于用户的反对,他强调不会移除。在更新之后用户会在“视图”菜单下看到 AI 功能“Discuss selected books with AI”。如果没有配置 GitHub AI 的访问令牌或 Google AI 的 API 密钥,或者通过 LM Studio 或 Ollama 本地运行模型,该功能实际上没什么用。对大多数用户而言,它就是几个没什么用的菜单项。对于用户对 AI 的强烈反对,Goyal 也提供了选择,他放出了 Calibre 的所有版本提供下载,用户可以从 0.6.x-8.x 选择任意一个版本使用。目前开源社区还不存在功能上能替代 Calibre 的电子书管理软件。Calibre 加入 AI 凸显出无论用户是否想要,AI 都在缓慢的渗透到我们的生活之中。

阅读原文 赞(166) 评论

MIT Technology Review 采访逾 30 名开发者、科技公司高管、分析师和研究人员后发现,基于大模型的 AI 工具是否加快程序员编程速度不是一个一锤定音的问题。随着一线程序员认识到大模型的局限性,他们对 AI 工具的狂热开始消退。众多研究表明,AI 工具所宣称的生产力提升可能只是一种假象。GitClear 的数据显示 2022 年以来工程师所写代码的持久性——数周内代码不会被删除或重写——提高约 10%,这一改进可能需要归功于 AI。但与此同时,代码的多项质量指标在快速下降。编程问答平台 Stack Overflow 的调查首次显示对 AI 工具的信任度和好感度显著下降。程序员普遍认同 AI 工具的优势在于生成“样板代码”,编写测试、修 bug 以及向新手解释不熟悉的代码。但对于经验丰富的程序员而言,此类任务只占工作量的一小部分,AI 工具对于解决复杂难题帮助不大。基于大模型的 AI 工具也不可避免存在幻觉,它们生成的代码看起来完美,因此很难发现错误。所以使用 AI 工具就像是玩老虎机,有的时候大有帮助,但其它情况可能完全不可靠。

阅读原文 赞(212) 评论

无论你需要不需要,AI 都将进入到你的生活里,其中包括厨房。三星准备在其冰箱产品中集成 Google 的 Gemini AI,识别客户的饮食习惯。在下个月举行的 CES 2026 展会上,三星计划展示新款的 Bespoke AI Refrigerator 冰箱,内置摄像头,能在 Google Gemini 的帮助下自动识别食物,包括放在无标签容器的剩菜剩饭。AI 冰箱将不需要输入信息就能维持食物库存的更新,跟踪食物的加入和移除,并根据剩余食物提供建议。这将是 Google Gemini AI 首次集成到冰箱中,标志着生成式 AI 的应用范围已从手机和笔记本电脑推广到家用智能电器。

阅读原文 赞(264) 评论

印度有一家叫 RRP Electronics 的资金雄厚的公司从事半导体的封装和测试,还有一家贸易公司改变了业务模式拥抱 AI 并更名为 RRP Semiconductor,两家公司没有关联,后者在 AI 热下股价在截至 12 月 17 日的 20 个月内飙升了 55,000%,市值达到 17 亿美元,是全世界 10 亿美元以上市值的企业中股价涨幅最高的。这家公司已经引起了印度监管机构的主意,其营业收入为负,最新财报报告只有两名全职员工,公司股票已被限制每周交易一次。

阅读原文 赞(181) 评论

《时代》今年的年度人物是 AI 时代的主要建筑师——英伟达 CEO 黄仁宇、AMD CEO 苏姿丰、xAI CEO 马斯克(Elon Musk)、Meta CEO 扎克伯格、OpenAI CEO 奥特曼(Sam Altman)、有 AI 教母之称的李飞飞、Anthropic CEO Dario Amodei 以及 Google AI CEO Demis Hassabis。《时代》称,不管好坏,这些人主导了今年的新闻头条,他们开启了机器智能时代,令世人惊叹担忧,他们改变了现状和超越了可能。

阅读原文 赞(183) 评论

咨询公司 Teneo 调查了逾 350 位上市公司 CEO。这些上市公司的年收入都超过 10 亿美元。调查显示,68% 的CEO 计划在 2026 年增加 AI 支出,受访者同时表示目前的 AI 项目只有不到一半产生了超过支出的回报。CEO 们称,AI 在市场营销和客服领域应用最成功,在安全、法律和 HR 等高风险领域面临挑战。Teneo 还调查了约 400 家机构投资者,53% 预计 AI 项目将在六个月内投资开始产生回报。84% 的大型公司——年收入 100 亿美元或以上——CEO 认为 AI 项目的投资需要逾六个月时间才能产生回报。此外 67% 的 CEO 认为 AI 将增加公司入门级员工人数,58% 的 CEO 认为 AI 将增加领导层人数。

阅读原文 赞(192) 评论