大型科技企业AI基础设施投资激增,2026年总额将达650万亿韩元

2026年,大型科技公司在人工智能基础设施领域的投资达到历史最高水平。谷歌、微软、Meta、亚马逊等主要公司计划仅今年就在AI计算方面投入数千亿美元。这场投资竞赛对半导体产业和全球经济的影响巨大。

彭博社报道称,大型科技公司2026年AI计算总支出约为500亿美元(约合人民币3600亿元)。特别是谷歌母公司Alphabet宣布2026年资本支出计划为750亿美元,大大超出市场预期。雅虎财经报道称,该消息发布后,Alphabet股价下跌。投资者对大规模支出而非短期盈利能力表示担忧。但从长远来看,确保AI基础设施意味着市场主导地位。数据中心建设、GPU采购、电力基础设施建设是核心投资领域。英伟达等半导体公司正受益于这一需求,创下历史最高销售额。由于落后于竞争对手将导致无法训练AI模型和提供服务,因此形成了一种无法停止投资的结构。

麻省理工科技评论将基础设施竞争列为2026年AI领域的关键议题。这场投资热潮在加速AI技术发展的同时,也带来了能源消耗和环境问题等新挑战。大型科技公司之间的AI基础设施军备竞赛预计将持续一段时间,中小型企业和初创公司将不得不调整战略,转向利用基于云的AI服务。

FAQ

Q: 2026年大型科技公司在AI基础设施方面的投资规模是多少?

A: 根据彭博社的数据,主要大型科技公司2026年AI计算总支出约为500亿美元。Alphabet单独计划的资本支出就高达750亿美元。

Q: AI基础设施投资对股价的影响是什么?

A: 短期内,由于对大规模支出的担忧,股价可能会下跌。Alphabet宣布投资计划后股价下跌就是一个典型的例子。但从长远来看,确保AI竞争力很可能导致企业价值的提升。

Q: 在这场投资竞赛中,哪个行业受益最大?

A: 英伟达等GPU制造商和半导体产业直接受益。数据中心建设相关建筑业、电力基础设施企业、冷却系统公司也间接受益。

AI投资泡沫开始破裂?2026年将迎来现实评估时代

AI投资热潮正在消退。曾经预计到2025年爆炸性增长的AI相关股票和投资资金,在2026年进入了急剧调整阶段。过度评估的期望与现实碰撞,市场现在开始以冷静的眼光衡量AI的实际价值。

CNBC报道称,AI可能取代现有SaaS企业的恐慌情绪冲击了软件股。一些分析师称之为“非理性恐慌”,但实际上多家SaaS公司的股价出现了两位数下跌。人们越来越担心AI工具可能会动摇现有软件市场的结构本身。另一方面,雅虎财经表示,如果说2025年AI向投资者“发出了约会邀请”,那么2026年就到了“该付账的时候”。这意味着现在是需要用实际收益来证明的时刻。AI初创企业的估值相对于业绩而言过高,无法弥合这一差距的企业将不可避免地被淘汰。

TechCrunch预测2026年将是AI从“炒作到实用主义”的转变之年。分析认为,实际的商业模式和盈利能力将成为企业评估的核心标准,而不是盲目的投资。大型科技企业也在调整战略,减少或优化AI基础设施投资。泡沫破灭的过程是痛苦的,但最终很可能形成只有有实力的企业才能生存的健康重组。

AI投资市场的调整是不可避免的过程。虽然没有必要对短期下跌感到恐慌,但仅仅凭借“AI”之名就能获得高估值的时代已经结束。专注于创造实际价值的企业和技术将是明智的策略。希望本文能为您的投资判断提供参考。

FAQ

Q: AI投资泡沫真的要崩溃了吗?

A: 与其说是完全崩溃,不如说是过热市场的调整过程。更准确地说,这是一个消除没有实体的过度评估,并以有实力的企业为中心进行重组的阶段。

Q: SaaS企业因为AI而面临危险吗?

A: AI可以取代一些SaaS功能,但并非所有SaaS都会消失。积极采用AI来增强服务的企业反而可能提高竞争力。

Q: 现在可以投资AI相关股票吗?

A: 仅仅因为是AI主题而投资是危险的。重要的是筛选出实际销售额和收益结构稳固的企业,并且最好从长远角度入手。

大型科技AI基础设施投资突破650亿美元,2026年数据中心战争的真相

2026年,大型科技公司在人工智能基础设施上的投资规模超过650亿美元。微软、谷歌、Meta、亚马逊等主要企业正在向数据中心扩张投入巨额资金。人工智能竞争正从单纯的模型开发扩展到基础设施争夺战。

彭博社报道称,大型科技公司2026年的人工智能计算总投资额将达到650亿美元,比上一年增长超过40%。特别是谷歌的母公司Alphabet宣布2026年的资本支出计划为800亿美元,大大超过了华尔街的预期。雅虎财经报道称,该消息发布后,Alphabet的股价暴跌。投资者担心短期盈利能力下降。但大型科技公司的高管们都持有相同的逻辑:不投资人工智能基础设施的风险大于投资的风险。GPU的供应竞争仍然激烈,为确保获得英伟达芯片而签订的长期合同接连不断。数据中心用地的获取也成为新的战场。美国中西部和东南亚地区正在涌现大型数据中心园区。

TechCrunch认为,2026年是人工智能从炒作转向实用主义的一年。关键问题是,巨额的基础设施投资能否转化为实际的收入和利润。如果投资回报失败,可能会给大型科技公司的业绩带来相当大的压力。相反,如果人工智能服务的需求如预期般激增,那么率先进行投资的公司将主导市场。基础设施投资竞争最终将成为决定人工智能生态系统赢家的关键变量。

FAQ

Q: 2026年大型科技公司在人工智能基础设施上的投资规模是多少?

A: 根据彭博社的报道,主要大型科技公司在人工智能计算方面的总投资额约为650亿美元。仅Alphabet一家就计划投入800亿美元的资本支出。

Q: 为什么大型科技公司要在人工智能基础设施上投入如此多的资金?

A: 因为人工智能模型的学习和推理所需的计算能力呈指数级增长。获得GPU和数据中心直接关系到人工智能的竞争力,因此先发制人的投资是必不可少的。

Q: 这项投资有没有失败的可能?

A: 存在可能性。如果人工智能服务的收入增长不足以证明投资规模的合理性,盈利能力可能会大大恶化。Alphabet股价暴跌反映了市场上的这种担忧。

英伟达 Rubin 平台发布,AI 计算新一代转型正式开启

NVIDIA 正式发布了下一代 AI 计算平台“Rubin”。Rubin 是现有 Blackwell 架构的后续产品,旨在显著提升 AI 学习和推理性能。此次发布正值 2026 年 AI 基础设施竞争白热化之际,在整个行业引起了巨大反响。

NVIDIA 通过官方新闻稿公开了 Rubin 平台的核心规格。Rubin 配备了新的 GPU 架构、下一代 NVLink 互连以及高带宽内存 (HBM4)。据称,这可以将大型语言模型 (LLM) 的学习速度提高数倍以上。尤其值得关注的是,其设计针对 AI 超级计算机的构建进行了优化。核心在于,它不仅仅提高了芯片性能,而是通过平台级方法来提高整个系统的效率。彭博社报道称,2026 年大型科技公司在 AI 计算方面的投资预计将达到 6500 亿美元。在这种大规模投资的背景下,Rubin 表明 NVIDIA 决心继续保持其在 AI 芯片市场的领导地位。尽管 AMD、英特尔和谷歌 TPU 等竞争对手也在准备下一代芯片,但 NVIDIA 的软件生态系统 CUDA 的主导地位似乎难以撼动。

麻省理工科技评论曾将 2026 年 AI 的核心议题定义为计算基础设施的扩展。Rubin 平台正是符合这一趋势的产品。由于 AI 模型的规模不断扩大,支持它们的硬件的重要性只会越来越高。Rubin 的实际出货时间和定价策略可能会极大地改变 AI 行业的格局,因此有必要密切关注未来的动向。

FAQ

Q: NVIDIA Rubin 平台何时发布?

A: NVIDIA 计划在 2026 年内出货,具体时间将在稍后公布。

Q: Rubin 与现有 Blackwell 最大的区别是什么?

A: Rubin 是一个平台级的升级,配备了 HBM4 内存和下一代 NVLink,可显著提高 AI 学习和推理性能。

Q: Rubin 平台对 AI 市场的影响是什么?

A: 在大型科技公司对 AI 基础设施的投资激增的情况下,Rubin 有望进一步巩固 NVIDIA 的市场主导地位。

AI 代理,2026年成为职场数字伙伴

2026年,AI Agent正超越简单的聊天机器人,成为职场中的数字同事。能够自行判断并执行邮件整理、日程管理、数据分析等任务的AI出现,工作方式本身正在发生改变。与过去的工具型AI不同,Agent型AI能够理解上下文并主动行动。

微软在2026年AI趋势展望中将AI Agent列为核心关键词。分析认为,AI Agent正朝着掌握复杂工作流程并自主处理多个步骤的方向进化,而非仅执行简单命令。实际上,微软Copilot、谷歌Gemini、OpenAI的Agent功能正在企业市场迅速普及。例如,自动分配会议记录摘要后的行动项目,或监控项目进度并提示瓶颈环节。TechCrunch报道称,2026年AI将从过度炒作转向实用主义,AI Agent在职场中的引入是其典型案例。不仅是开发者,营销人员、销售人员、人事负责人等也开始利用适合各自工作的AI Agent。CES 2026上,物理AI和机器人也是主要话题,软件Agent与物理机器人相结合的趋势十分明显。

当然,也存在担忧。如果Agent做出错误判断,责任归属将不明确,自动化带来的就业岗位变化也无法避免。但现实情况是,AI Agent很可能朝着减少重复性工作,帮助人们专注于创造性工作的方向发展。2026年可能会被记录为AI成为同事的元年。适应这一趋势的组织和个人将具有竞争力。

FAQ

Q: AI Agent与现有聊天机器人的区别是什么?

A: 聊天机器人是被动回答问题的工具。AI Agent能够自行理解上下文,并自主连接执行多个任务。判断和执行能力是核心区别。

Q: 哪些职位最适合使用AI Agent?

A: 在重复性数据处理、日程管理、邮件分类等标准化工作中效果显著。营销活动分析或客户服务自动化等领域的应用范围也在扩大。

Q: 引入AI Agent时应注意什么?

A: 必须明确Agent的判断范围和权限。对于敏感决策,应保持人工最终确认的结构。还应事先制定安全和隐私保护标准。

AI 代理的成熟阶段:向企业自动化演进

AI 代理正从简单的聊天机器人快速演变为能够自主处理复杂任务的企业自动化工具。Microsoft 将代理的成熟列为 2026 年 AI 趋势的首要因素。现在,代理不再等待命令,而是自行判断并采取行动。

早期的 AI 代理按照预定义的规则重复简单的任务。但最近出现的代理有所不同。Google Cloud 的报告显示,到 2026 年,代理将具备多模态理解能力和长期记忆,能够跨多个系统处理复杂的工作流程。例如,收到客户咨询时,代理可以检查 CRM,并与库存系统联动,自动协调发货时间。这种变化从根本上改变了企业的运营方式。IBM 分析认为,代理将大幅减少员工的重复性工作,让他们有更多时间专注于创造性工作。实际上,在金融领域,代理可以自动审查贷款申请文件,在制造业中,代理可以提前检测设备异常,安排维护计划。

代理技术尚未完全成熟。但其成熟速度很快。未来,代理将超越简单的工具,成为业务合作伙伴。企业现在就应该具体化代理的使用场景,并完善数据基础设施。只有做好准备的组织才能在自动化时代获得竞争力。

FAQ

Q: AI 代理与现有聊天机器人有何不同?

A: 聊天机器人仅回答用户问题。代理连接多个系统,自主执行任务并得出结果。

Q: 引入代理时最大的障碍是什么?

A: 数据集成和安全。代理要访问多个系统,需要统一的数据结构和强大的权限管理。

Q: 中小企业也可以使用 AI 代理吗?

A: 可以。随着基于云的代理服务增加,无需初始投资即可通过订阅方式引入。

使用macOS caffeinate命令防止MacBook进入睡眠状态

开始之前

我曾经把 Claude Code 跑起来后就离开了座位。回来后发现 MacBook 进入了睡眠模式,导致工作停止了。终端里跑着东西,MacBook 却自己关机的问题,可以用 macOS 的一个基本命令来解决。

1. 什么是 caffeinate

caffeinatemacOS 内置的命令。无需单独安装。顾名思义,就是给 MacBook 喂咖啡,让它保持清醒,不进入睡眠状态。

虽然也可以在系统设置中更改为“永不睡眠”,但那样每次都需要改回来。caffeinate 可以在 需要的瞬间 防止睡眠,并在任务完成后自动恢复原状。

2. 基本用法 — 新运行时

要从开始终端任务时就防止睡眠,只需在 caffeinate 后面加上要执行的命令即可。

caffeinate -dims claude

这样,在 Claude Code 运行期间,MacBook 绝对不会进入睡眠状态。关闭 Claude Code 时,caffeinate 也会自动一起关闭。

你可能想知道 -dims 是什么,它们是防止不同类型睡眠的标志。

标志 含义 说明
-d display 防止显示器睡眠 (防止屏幕关闭)
-i idle 防止系统空闲睡眠 (即使没有输入也不会睡眠)
-m disk 防止磁盘睡眠
-s system 防止系统睡眠 (连接电源时)

如果可以接受屏幕关闭,只要工作不停止,只使用 -i 就足够了。

caffeinate -i claude

3. 应用于已运行的进程

有时,在已经运行 Claude Code 的状态下,会想到“啊,忘了用 caffeinate 了”。这时,可以 打开另一个终端标签页,并使用 -w 标志。

# 在另一个终端标签页中运行
caffeinate -dims -w $(pgrep -ox "claude")

-w 用于 在特定进程 ID (PID) 存在期间 防止睡眠。pgrep -ox "claude" 用于查找当前正在运行的 claude 进程的 PID。

如果 pgrep 找到多个进程并导致错误,则只需使用 -o 标志即可。(仅选择最老的父进程)

caffeinate -dims -w $(pgrep -o "claude")

4. 指定时间使用

如果只想在特定时间内防止睡眠,可以使用 -t 标志指定时间,单位为

# 防止睡眠 2 小时 (7200 秒)
caffeinate -dims -t 7200

5. 实际应用示例

除了 Claude Code 之外,所有在终端中需要长时间运行的任务都可以使用。

# 大容量构建
caffeinate -i ./gradlew assembleRelease

# 下载大文件
caffeinate -i wget https://example.com/big-file.zip

# npm 安装 + 构建
caffeinate -i bash -c "npm install && npm run build"

# 运行服务器
caffeinate -dims node server.js

核心很简单。“在耗时长的命令前面加上 caffeinate -i。” 记住这一点即可。

6. 注意事项

  • 即使使用了 caffeinate合上 MacBook 盖子也会进入睡眠状态 (clamshell mode)。如果想在合上盖子的情况下使用,则需要连接外部显示器 + 电源 + 键盘/鼠标。
  • 在电池模式下,-s 标志 无效。使用电池时,请使用 -i 标志。
  • 要结束 caffeinate,请在该终端中按 Ctrl+C

7. 注册 alias — 每次输入太麻烦时

每次都输入 caffeinate -dims claude 很麻烦。注册 alias 后,只需输入 claude 即可自动应用 caffeinate

~/.zshrc (使用 bash 的人是 ~/.bashrc) 中添加以下行。

# 添加到 ~/.zshrc
alias claude='caffeinate -dims claude'

保存后,重新打开终端或运行 source ~/.zshrc 即可生效。

source ~/.zshrc

从现在开始,只需输入 claudeClaude Code 就会在 caffeinate 状态下运行。无需再操心。

如果想在没有 caffeinate 的情况下纯粹运行 claude,可以使用 command 关键字。

# 忽略 alias 并运行原始 claude
command claude

感想

虽然是小事,但如果不知道,会让人很烦恼。特别是像 Claude Code 这样 与 AI 对话并长时间运行任务的情况,如果 MacBook 中途进入睡眠状态导致会话中断,会让人很慌张。了解 caffeinate 可以完全避免这种情况。如果注册了 alias,甚至可以忘记它的存在。

Claude Code v2.1.32 发布说明 – 实用技巧整理

进入正题

因为我主要使用 Claude Code 作为开发工具,所以养成了发布说明一出来就立刻查看的习惯。2 月 5 日发布了 v2.1.32,这次更新有很多实在的变化,所以想整理一下。

如果仅仅是“添加了这些功能”就太无聊了,所以我会一起写一些实战应用技巧,介绍一下实际该如何使用。希望能对大家有所帮助。


1. 新功能

A. 支持 Claude Opus 4.6 模型

添加了最新的 Opus 模型。可以在 Claude Code 中使用 --model 选项选择,也可以设置为默认值。

使用技巧:模型使用策略

不必所有任务都使用 Opus。根据情况分开使用,既能节省成本,又能保证速度。

情况 模型 理由
架构设计、复杂的重构 Opus 需要掌握广泛的上下文 + 精确的判断
简单的 Bug 修复、代码格式化 Sonnet 快速且便宜,这样就足够了
文件浏览、以搜索为主的任务 Haiku 作为子代理运行速度快

在 Plan 代理中进行设计时使用 Opus,实际修改代码时使用 Sonnet,这样组合使用性价比很高。

B. Agent Teams (研究预览)

多个代理互相发送消息并协作的功能。目前还处于实验阶段,需要设置环境变量。

# 激活 Agent Teams
export CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1

使用技巧:在什么情况下有用

说实话,目前消耗的 Token 太多,日常使用会有负担。但在以下情况下可以尝试使用。

  • 大规模多模块重构:修改模块 A 时,模块 B、C 也需要连锁更改时
  • API 规格变更:后端 DTO 更改时,需要同时修改 Remote → Data → Domain → Presentation 所有层时
  • 迁移任务:例如 Gson → Kotlin Serialization 等涉及整个项目的任务

与现有的 Task 代理(子代理)的区别在于,Task 是单向委托任务,而 Agent Teams 是代理之间可以相互通信。由于目前还是研究预览,建议用于实验目的,而不是用于生产任务。

C. 自动内存 (Auto Memory)

我个人认为这是本次更新中最实用的功能

Claude Code 会自动将工作过程中学到的内容记录到 MEMORY.md 文件中,并在下次对话中参考。存储在项目目录中的 .claude/projects/.../memory/ 路径下。

使用技巧:内存管理方法

如果放任不管,内存可能会被不必要的内容填满。这样管理会有帮助。

# MEMORY.md (保持在 200 行以内)

## 项目结构
- feature 模块是 Compose,comics 模块是 XML + DataBinding
- Remote API 必须返回 DataResponse<T>

## 经常犯的错误
- 不能不使用 safeApiCall 直接使用 try-catch
- 不要在 ViewModel 中直接使用 viewModelScope.launch,而要使用 onMain/onIO

## 详细笔记链接
- 构建问题: debugging.md
- 代码模式: patterns.md

关键是MEMORY.md 超过 200 行就会被截断,因此要保持简洁,并将详细内容分离到单独的文件中。这与在 CLAUDE.md 中编写项目规则类似,但 MEMORY.md 的不同之处在于,Claude 会自动学习并积累内容。

D. “Summarize from here” 功能

可以在消息选择器中从特定点开始总结对话

使用技巧:上下文管理

使用 Claude Code 工作时间长了,就会出现上下文窗口不足的情况。以前只是简单地开始一个新的会话,或者交给自动压缩,但现在可以根据所需的点进行总结。

这种模式很有效。

  1. 完成探索/调查阶段(读取文件、掌握结构)
  2. 在这里执行“Summarize from here”
  3. 开始实现阶段(探索结果压缩成摘要,专注于代码修改)

在不必要的探索日志占用上下文的情况下,核心信息也能得到保留,因此提高了实现质量。

E. 自动加载 –add-dir 技能

使用 --add-dir 添加的目录中的 .claude/skills/ 文件也会被自动识别。

使用技巧

可以将通用技能集中在单独的目录中,并使用 --add-dir 将其加载到每个项目中。通过这次更新,技能也会被自动加载,因此命令的重用变得更加方便。


2. Bug 修复

A. 修复 @ 文件自动完成路径

如果在子目录中运行 Claude Code,则在引用 @ 文件时,相对路径会出现问题。例如,如果在 feature/offerwall/ 中运行,则无法正确捕获 @src/main/... 路径,但这个问题已得到修复。

B. Bash heredoc 模板字面量错误

这是我亲身经历过的问题,所以很高兴看到这个问题得到修复。如果在 Bash 工具的 heredoc 中包含 JavaScript 模板字面量(例如 ${index + 1}),则会发生 “Bad substitution” 错误。原因是 Shell 将 ${} 解析为变量替换,但现在可以正确地进行转义处理。

# 之前:如果 heredoc 中有这样的代码,则会发生错误
cat <<EOF
const item = items[${index + 1}]  // Bad substitution!
EOF

# v2.1.32: 正常运行

C. 泰语/老挝语元音渲染

修复了输入字段中泰语元音损坏的问题。(对韩语用户没有直接影响,但在处理多语言相关任务时,了解一下也很好)

D. [VSCode] 修复斜杠命令错误

修复了在 VSCode 中输入文本后按 Enter 键时,斜杠命令执行错误的问题。如果有人使用 VSCode 扩展来使用 Claude Code,那么会感受到这个修复。


3. 改进事项

A. –resume 自动重用代理

使用 --resume 继续之前的对话时,会自动重用该对话中使用的 --agent 值。

使用技巧

在创建和使用自定义代理的情况下很有用。例如,如果使用代码审查代理进行工作,然后中断会话,稍后使用 claude --resume 继续,则会自动恢复审查代理设置。以前需要再次附加 --agent 标志。

B. 扩大技能字符预算

分配给技能描述的字符预算已扩大到上下文窗口的 2%。这对注册并使用大量技能的人来说是个好消息。如果使用较大的上下文窗口,则可以容纳更多未被截断的技能描述。

C. [VSCode] 对话列表加载微调器

虽然很小,但在加载过去的对话列表时添加了加载微调器。从 UX 改进的角度来看。


4. 更新应用流程

顺便分享一下在确认发布说明后应用的顺序。

# 1. 更新
npm update -g @anthropic-ai/claude-code

# 2. 确认版本
claude --version

# 3. MEMORY.md 初始设置 (首次使用 Auto Memory 时)
# 在 .claude/projects/.../memory/MEMORY.md 文件中编写项目核心规则摘要
# Claude 会自动添加,但如果设置初始值,则方向性会更好

# 4. 测试新功能
# 通过简单的任务确认 Opus 4.6 的性能
claude --model claude-opus-4-6 "请分析一下这个项目结构" # 请分析一下这个项目结构

总结

v2.1.32 给人的感觉是提高了实际使用质量的更新,而不是华丽的大型功能。特别是 Auto Memory 和 Summarize from here 是直接解决长时间会话的固有问题(上下文不足、丢失上下文)的功能,因此会经常使用。

Agent Teams 虽然还处于实验阶段,但方向本身很有趣。如果代理之间协作的结构稳定下来,我认为可能会改变大规模代码库工作的格局。

还有 heredoc Bug 修复……说实话,因为我曾经因此踩过坑,所以这是我个人最欢迎的修复。

希望这篇文章能对使用 Claude Code 的人有所帮助。

NASA火星探测器现在由人工智能直接导航——自主导航时代开启

NASA最新的火星探测车配备了基于AI的自主导航系统,无需人工干预即可自行设计路线。在地球与火星之间的通信延迟高达22分钟的情况下,它能够实现实时避障和最佳路径探索。 这有望成为显着提高太空探索效率的转折点。

现有的火星探测车只能执行从地球发送的命令或具有有限的自主功能。 每天的行驶距离仅为100米左右。 新系统结合了基于深度学习的地形识别和路径优化算法。 探测车上安装的摄像头实时分析收集的数据,以识别岩石、陨石坑和斜坡。 InfoWorld评选的2026年AI创新之一,该技术在模拟环境中实现了99.2%的避障成功率。 它将地形数据重构为3D地图,并以每秒数百种的速度分析路径方案。 采用综合评估能源效率、科学探索价值和安全性的方法来选择最佳路径。

自主导航不仅提高了移动速度。 这意味着探测车可以自行发现并接近科学上有趣的地点。 MIT Technology Review预测,这种自主系统将成为月球基地建设和小行星探测等未来任务的关键技术。 如果与下一代AI硬件研究相结合,则可以做出更复杂的决策。 在地球外环境中无需人工干预即可运行的AI可以改变太空探索的模式。 如果未来十年内实现火星载人探测,则这种自主系统很可能充当人类探险队的先遣队。

FAQ

Q: 与现有探测车有何不同?

A: 现有的探测车必须等待地球的命令,每天只能移动100米左右。 新系统通过AI实时分析地形来自行确定路线,从而显着提高了移动速度和探索效率。

Q: 如何解决通信延迟问题?

A: 由于地球与火星之间存在长达22分钟的通信延迟,因此无法进行实时控制。 AI自主导航使探测车能够在现场立即做出判断并采取行动,从而从根本上绕过了延迟问题。

Q: 是否适用于其他太空探索?

A: 可用于月球基地建设、小行星探测、木星卫星探测等各种任务。 尤其是在火星载人探测中,预计将作为先遣队投入,以预先调查安全路线和基地候选地点。

AI基础设施战争正式打响:NVIDIA·AMD·微软大型科学计算芯片需求激增

AI时代的胜者之战正从软件转向硬件。2026年,NVIDIA、AMD和Microsoft正在大型科学计算芯片市场展开前所未有的投资竞赛。据彭博社报道,Alphabet计划今年在AI基础设施上投资高达1850亿美元,远超投资者预期。

NVIDIA于1月15日发布了Earth-2开放模型系列,进军AI气象预测市场。随着气候模拟等大规模科学计算需求的爆炸性增长,高性能芯片已成为必不可少的基础设施。Microsoft也不甘示弱。据TechCrunch报道,1月26日,Microsoft发布了下一代AI推理芯片Maia 200,加速了其自主芯片的开发。云公司正在积极设计自己的芯片,以降低对NVIDIA的依赖。

AMD在CES 2026上发布了Ryzen AI 400系列,瞄准边缘设备AI芯片市场。随着PC和移动设备上实时AI处理的实现,数据中心芯片和边缘芯片之间的竞争日益激烈。特别是,科研机构和制药公司正在大量采用大型计算芯片进行新药开发和蛋白质折叠预测,导致需求激增。因为使用传统CPU处理速度太慢,实用性降低。

硬件竞争预计将在短期内进一步加剧。随着AI模型变得越来越大,学习和推理都需要大量的计算资源。只有拥有自主芯片的公司才能在成本效益和性能优化方面占据优势。Gartner预测,到2027年,70%的大型云厂商将运营自己的AI芯片。硅芯片的创新与软件创新一样,已成为AI时代的核心竞争力。

FAQ

Q: 为什么云公司要自己制造芯片?

A: 为了降低对NVIDIA芯片的依赖并降低成本。自主芯片还可以确保性能优化和供应链稳定性。

Q: 什么是大型科学计算芯片?

A: 专门用于高速处理气候模拟、新药开发和蛋白质折叠等复杂科学计算的芯片。其并行处理能力优于GPU。

Q: AMD能在竞争中生存下来吗?

A: 在边缘设备AI芯片市场存在机会。数据中心是NVIDIA的天下,但在PC和移动领域,AMD具有竞争力。