更快更节能!谷歌称自家AI超算系统优于英伟达
zhonghua @ 2023年04月06日 财经风云
更快更节能!谷歌称自家AI超算系统优于英伟达 财联社 财联社4月5日讯(编辑 周子意)当地时间周二(4月4日),谷歌公布了其用于训练人工智能(AI)模型的超级计算机的最新细节。该公司称,这些系统比英伟达公司的同期系统更快、更节能。 目前,谷歌公司90%以上的AI训练工作都是通过谷歌自主研制的TPU芯片(Tensor Processing Unit)完成的。其AI训练的过程是:通过给模型输入数据,使其能够用类似人类的文本回应、并具备生成图像等功能。 现谷歌TPU芯片已经出到第四代(TPU v4)了。谷歌公司周二发布的一篇论文详细阐述了,该公司是如何利用自己定制的光开关将4000多个芯片组合到一台超级计算机中,从而帮助连接一台台独立机器。 改善芯片间的连接 随着OpenAI的ChatGPT、谷歌的Bard等AI聊天机器人的竞争愈演愈烈,改善芯片间的连接已成为开发AI超算的科技公司的一个关键竞争点。 由于ChatGPT、Bard等产品背后使用的大型语言模型的规模太庞大了,无法存储在单一芯片上。所以,这些模型必须分散在数千个芯片上,然后这些芯片必须同时工作,花费数周或更长时间来训练语言模型。 谷歌的PaLM是该公司迄今为止公开披露的最大的语言模型。其训练方式是:通过将其分配到两台各包含4000个芯片的超级计算机中,历时50天进行训练。 谷歌周二称,其超级计算机可以很轻松地在运行过程中重新配置芯片之间的连接,有助于避免问题并调整性能。 该公司的研究员Norm Jouppi和工程师David Patterson在上述论文中写道,"电路切换可以很容易地绕过故障组件…这种灵活性甚至允许我们改变超级计算机互连的拓扑结构,以加速机器学习模型的性能。" 研发新版本 虽然谷歌直到现在才披露关于其超级计算机的详细信息,不过事实上,自2020年以来,该系统已经在公司内部上线,应用于该公司位于俄克拉荷马州的一个数据中心。 据悉,初创公司Midjourney使用该系统来训练其模型,在输入几句文字后,模型就会生成新的图像。 谷歌在论文中还写道,相比于与TPU v4同时发布的英伟达A100芯片,其芯片速度高达A100的1.7倍,能耗效率是A100的1.9倍。 不过谷歌也承认,并没有将TPU v4与英伟达目前的H100芯片进行比较。给出的理由是:H100上市时间晚于谷歌芯片,并且采用了更新的技术。 此外,谷歌还暗示,正在研发一种新版本TPU,以期与英伟达H100芯片竞争,但没有提供细节。
|
相关内容
-
暂无...
推荐内容
- 逆袭!600家小市值公司藏金,机构调研曝光三大爆..
- 特朗普“大重置”:债务化解、脱虚向实、美元贬值..
- 美股三大指数冲高回落,中概股重挫,纳斯达克中国..
- 深夜,重挫!近一个月最大跌幅;鸿蒙智行,连推爆..
- 活久见!美国商务部长上电视“推票”:买特斯拉股..
- 华尔街解读美联储决议:鸽派的亮点与迷你“鲍威尔..
- 深海经济利好持续加码,与商业航天、低空经济并列..
- 美联储的“关键一战”在5月,届时降不了息,那今..
- 李嘉诚押注创新药!和黄医药明星抗癌药海外大卖近..
- “三巫日”前美股反弹一日游,量子计算股暴跌,拼..
- 鲍威尔给经济焦虑“灭火”,标普创八个月来美联储..
- 腾讯要为AI砸千亿重金
- 政治危机升级,反对派领袖被捕引发土耳其股债汇三..
- 3月LPR报价出炉!1年期、5年期均维持不变..
- 五部门:依法稳步推进绿证强制消费,逐步提高绿色..
热点阅读
- 逆袭!600家小市值公司藏金,机构调研曝光三大爆..
- 大摩看印股今年涨18%的三大理由:经济、盈利、散..
- 政府工作报告:2025年GDP增长目标5%左右,CPI涨幅..
- 500亿量化帝国“幕后推手”:龙头券商财富业务“..
- 上证报:从股债利差看,当下市场或已经处在相对底..
- 理财人的至暗时刻:资产荒的资产荒,钱荒的钱荒..
- 美联储三把手:美国经济已准备好“软着陆”,支持..
- 国家统计局:2024年GDP为1349084亿元,比上年增长..
- 欧洲电网逼近崩溃!伦敦电价一度飙升5000%,法国..
- 重磅!谷歌宣布计划推出聊天机器人Bard,苹果下周..
- 历史性一刻!顶级域名ai.com重定向到DeepSeek官网..
- 跳水40美元!金价跌至疫情以来新低..
- 中共中央、国务院:到2025年形成一大批质量过硬、..
- 支付宝凌晨回应“打八折”事故:不追回优惠,失误..
- GPT炒股,最强外挂来临?