雅思考试小白入门指南
2019-06-25
更新时间:2026 03 12 11:56:50作者:佚名
一周之内,谷歌型号Gemini发布、AMD芯片MI300X推出、OpenAI在“换帅风波”后曝出NPU芯片、IBM牵头成立“AI”联盟——,都在说同一件事:科技公司无论是在软件还是硬件上,他们都尽力避免出现一个主导者。
独立研发模式和集团研发模式与通过ChatGPT出名的OpenAI竞争,年收入猛增4500%;更快、更大内存和带宽的芯片,目标是全球首款市值超万亿美元的芯片。公司英伟达。
总之,仰慕OpenAI和NVIDIA一年的大小巨头迅速联手:有单打,也有群战。
商场就像战场。一方面,有科技公司“以十倍之地,百万人口攻秦”。另一边,有两个“乘势而上,一统天下”的胜利者。而战场就像商场,从来不存在“留给后世的遗产”。
仔细一看,OpenAI布局的NPU芯片值得研究。
OpenAI是当之无愧的后起之秀。
2023 年底,首席执行官萨姆·奥尔特曼(Sam Altman) 被解雇并立即复职,几乎成为全球媒体的头条新闻。一年前,基于GPT 的聊天机器人ChatGPT 发布。三个月内,它就创下了1 亿用户和18 亿月访问量的记录。
2022年,该公司全年营收仅为2800万美元。 2023年,其年收入将达到13亿美元,是去年的45倍,月均收入将超过1亿美元。
2023年4月,OpenAI完成第五轮融资103亿美元,估值27-290亿美元。估值并没有那么高,主要是因为其“不以盈利为目的”的初衷。
与其竞争对手人工智能初创公司Anthropic相比,后者的年收入仅为1亿美元,每月约为800万美元,不到OpenAI的1%,但其估值也在20-300亿美元。美元左右。
行业内其他企业也逐渐出现衰退迹象。例如,AI语音识别初创公司Deepgram今年已启动第二次裁员,裁员人数占其总人数的20%。另一家人工智能初创公司JasperAI 宣布裁员并下调收入预期。就连公司联合创始人、CEO、CTO也相继离职。
急需Gemini扭亏为盈的谷歌在过去的一年里过得很艰难。财报显示,DeepMind 2022年净利润下降逾40%,从2021年的近1.26亿美元降至2022年的近7490万美元。
12 月6 日出现的Gemini,意为“双子座”,是为了纪念谷歌两个人工智能团队DeepMind 和Google Brain 于2023 年4 月合并。它被谷歌宣传为“迄今为止最强大、最全能的模型”, “30个指标优于GPT-4”,它拥有“原生”多模态,而不是“近似”GPT-4多模态。
谷歌双子座/新闻室帖子
近似多模态是指将文本、代码、音频、图像、视频等多种模态训练成不同的模型,然后混合模型。 Gemini原生的多模态从一开始就把不同类型的数据放在一起训练,用同一个模型完成不同模态的输出。
哪一个更好,哪一个更差,至少目前看来差别并不大。这与喝“果橙”类似。无论摇匀与否,它仍然是同一种饮料。
OpenAI的GPT、Anthropic的Claude、DeepMind的Gemini ——是目前世界上最先进的多模态模型。它们的背后是大规模的多任务语言理解模型,而且它们的水平相差并不大。无论是原始的还是近似的,“判断标准”并不透明。
双子座刚刚被众人调侃:演示视频经过“巧妙”剪辑,达到最佳效果,折线图纵轴经过压缩,呈现出——的惊人增幅。总之,别以为科技公司没有营销。
对于普通用户来说,所有应用程序之间的区别更多的是便利性、可用性、集成性和品牌认知度。
三种不同尺寸的Google Gemini 版本
ChatGPT率先引起市场关注,率先塑造了行业黄金标准,成为示范大规模语言模型从研究项目向实用工具转变的典范,给竞争对手带来了巨大的心理压力。
谷歌在为Gemin造势的同时,也急于报耻辱:ChatGPT推出后不久,谷歌就迅速排挤了巴德。结果,韦伯太空望远镜的答案出现了事实错误,导致谷歌股价下跌超过7%。大约1000亿美元的市值被蒸发。
竞品之间的一对一之战是不可避免的。
与此同时,“群殴”的数量也有所增加。
12月5日,IBM宣布将联合Meta、英特尔、AMD、戴尔、康奈尔大学、达特茅斯大学、索尼等全球50多家创始成员共同成立人工智能联盟(AI Alliance)。打造开放的人工智能发展模式,构建多元化的人工智能生态系统。
AI联盟主页(上)和地图上描绘的AI联盟成员/AI联盟
说白了,相当于做了一个Android系统,减少了对OpenAI的依赖。
人工智能联盟的主要思想是更多的人(和钱)可以带来更多的力量。创始成员每年将共同投资超过800亿美元用于促进研发,并投资超过100万名员工。
今年“30岁”的英伟达成为全球第一家市值突破万亿美元的芯片公司、全球第一家中国人创办的万亿市值公司、第七家市值突破万亿美元的美国公司市值超过1万亿美元。公司。
其市值仅次于苹果、微软、Alphabet、亚马逊。是美股第五大科技股,大致相当于1.8台积电、2.6腾讯、3.3贵州茅台、4.9阿里巴巴。
随着ChatGPT引发大型号的激烈竞争,Nvidia的GPU(图形处理单元)已经缺货。 2019年,微软斥资数亿美元为OpenAI采购了数千颗A100芯片。今年以来,售价4万美元的H100必须“先发制人”:沙特阿拉伯、阿联酋以及中国科技巨头腾讯和阿里巴巴都是主要客户。
自2007年以来,NVIDIA投入巨资打造编程软件CUDA,利用GPU的处理能力大幅提升计算性能。 2012年,卷积神经网络迎来人工智能新浪潮,NVIDIA GeForce GTX 580芯片一举名声大噪。
NVIDIA H100 NVL/NVIDIA
如今,NVIDIA的GPU+CUDA基本上已经成为大模型训练的默认选项,几乎垄断了整个大模型市场。 Nvidia目前占据了人工智能GPU市场至少80%的份额。
最新财报显示,英伟达第三财季营收为181.20亿美元,较去年同期的59.31亿美元增长206%,较上一财季的135.07亿美元增长34% 。
利润方面,英伟达第三财季净利润为92.43亿美元,较去年同期的6.8亿美元增长1259%,较上一财季的61.88亿美元增长49%。四分之一。
与英伟达争夺“最强GPU”的超威第三季度营收为58亿美元,预计第四季度营收为61亿美元。它的季度营收跟不上英伟达的季度净利润。
机会在于竞争,而不在于“等待和希望”。
NVIDIA 上个月刚刚推出了最新的GPU——H200。超威12月6日发布的MI300X处理器拥有多达1530亿个晶体管,内存是H100的2.4倍,带宽是H100的1.6倍。一些纸面数据也优于H200。超威的MI300X比H200多使用了两个HBM(高带宽内存)。它的推出将很快缓解因NVIDIA GPU短缺而引发的行业焦虑。
超威MI300X/AMD基本规格截图
谷歌发布Gemini当天,还带来了全新的人工智能芯片TPUv5p。其性能指标仅为NVIDIA三年前A100产品的60%,H100的一半。
谷歌的做法就是“人海战术”。如果你一个人做不到,你仍然可以一起战斗。对于大的模型训练参数,使用的芯片量是相当大的。 OpenAI 去年训练了GPT-4,使用了25,000 个A100,花了三个多月的时间。谷歌从2015年开始就开始研发自己的芯片。两年后,TPU训练集群推出,供YouTube、Gmail、谷歌地图、Android等内部业务使用。
据说一个TPUv4最多有4096个芯片,Gemini1.0使用了14个TPUv4集群,比GPT-4消耗更多的计算能力。接下来,Gemini的升级版本基于TPUv5集群,消耗的计算能力约为GPT-4的五倍。
权力斗争刚刚结束的OpenAI就被曝要布局NPU(神经处理单元)芯片。首席执行官Sam Altman 此前与RainAI 公司签署了一份价值5100 万美元的意向书,承诺购买其芯片。
RainAI创始人曾宣称,“NPU芯片将定义新的AI芯片市场,并大幅颠覆现有市场。”
真的有那么神奇吗?
山姆奥特曼的“偏袒”与RainAI有关。奥特曼本人向RainAI投资了100万美元,并在2019年又签署了5100万美元的订单。作为CEO,这种购买显然是非法的,类似于校长叔叔承包的学校食堂。
抛开这个不谈,RainAI是一家生产NPU芯片的初创公司,成立于2017年。去年获得了Prosperity7领投的2500万美元融资。融资总额约为3300万美元,足够该公司运营到2025年初。沙特阿美公司旗下的Prosperity7被美国外国投资跨部门委员会强制出售其股份,最终被美国政府强制出售。被Grep VC 收购。
RainAI的创始人声称,其产品的性能将比GPU强大一百倍,而能耗却低一万倍。它可以训练人工智能模型并运行大型模型。其设计基于RISC-V开源架构。截至目前,该产品尚未上市。
Altman 赞扬了它的原型,称它“可以显着降低创建强大人工智能模型的成本,并希望有一天有助于实现真正的通用人工智能。”
NPU并不是什么新鲜事。它通过神经网络突触权值、拓扑结构等方法处理任务。与CPU擅长“发号施令”相比,GPU擅长图像处理和并行计算。 NPU专注于整合存储和计算,以提高处理人工智能任务的运行效率。
其指令集是特定的,只能满足部分机器学习的需求。不支持的指令或多个神经网络的组合计算仍然需要回退到通用处理器计算。
最早著名的NPU是IBM在2014年推出的TrueNorth:54亿个硅晶体管、4096个内置核心、100万个“神经元”、2.56亿个“突触”,能力相当于超级计算机。功耗仅为65毫瓦。
开发NPU的公司有很多。英特尔即将推出“Meteor Lake”处理器,该处理器采用NPU。 IBM也在打造NPU,投资数十亿美元,计划在2023年底发布NPU。近年来,国内外企业也量产了很多NPU。
Sam Altman当初购买NPU时,关键点并不是它是否“类脑”,而是因为他非常看好“存储与计算一体化”。
RainAI官网展示了D-IMC(数字内存项目)、SRAM(静态内存)存储与计算一体化架构图,以及业务团队顾问、内存处理专家Arijit Raychowdhury。
RainAI主页/RainAI上显示的一些信息
存储计算一体化方案是指将芯片的计算和存储功能结合在一起,而不需要单独部署在不同的节点或设备上。 CPU和GPU都遵循冯·诺依曼架构的存储与计算分离方案,不可避免地会撞到“内存墙”和“电源墙”两堵铁墙。
存储和计算集成解决方案分为三种类型:近内存计算、内存处理和在线计算。根据目前有限的信息,RainAI主攻内存处理。其本质是利用不同存储介质的物理特性,重新设计存储电路,使其兼具计算和存储能力,消除存储和计算边界,在存储位置实现计算。
有趣的是,据报道,Sam Altman 不仅投资了内存处理,还投资了近内存计算。结合OpenAI官网“人工智能与计算”的研究文章,这位目光敏锐的投资者正在关注“存储与计算融合”下定制芯片的不同解决方案以及它们能够带来的优势到大规模计算。
目前,全球存储计算一体化玩家主要分为两大阵营:一是国际巨头,如英特尔、IBM、特斯拉、三星、阿里巴巴等,他们较早布局存储和计算技术,磁存储等产品代表存储器未来趋势的存储器(MRAM)和忆阻器(RRAM)也已在领先代工厂量产。
另一类是国内外初创企业,如Mythic、Tenstorrent、智存科技、厚墨智能、千芯科技、一竹科技、九天瑞芯、平芯科技等。
磁存储器(MRAM)/techtarget
据最新消息,清华大学团队刚刚研发出了全球首款全系统集成的忆阻器存储与计算一体化芯片,支持高效的片上学习(机器学习可以直接在硬件端完成)。相关研究成果发表于《科学》(Science)。
忆阻器是继电阻、电容、电感之后的第四种基本电路元件。它在断电后仍能“记忆”经过的电荷,因此被视为一种新型纳米电子突触器件。
相同任务下,该芯片片上学习能耗仅为先进技术下专用集成电路(ASIC)系统的1/35,有望实现75倍能效提升。
综上所述,关于谁“遥遥领先”的争论始终存在。其实,无论是科技公司的营销手法,还是管理者的“宫斗”换人,关键都是粗中选优,看技术思路。 “存储与计算一体化”值得持续关注。
排版|菲菲
答: 这条新闻好像是在说某家公司的某个项目遭遇了很大的挫折,才会采取如此“不理智”的动作。 他们可能在某种程度上跟奥特曼或者英伟达的关联产品存在竞争关系,所以现在通过这种突出的方式来引起关注。
66 人赞同了该回答
答: 也许是这家公司背后支撑的模式出了问题,他们在业绩方面越来越难以为继,就用这种激进的方式吸引公众注意力,试图摆脱困境。这个举动多少有些“强盗逻辑”,但它确实能够在短时间内制造出轰动效应。
139 人赞同了该回答
答: 根据这条新闻标题的意思,这家公司很有可能是研发和推广与奥特曼形象相关的产品。 他们是通过制作奥特曼元素的玩具、游戏或者其他周边的形式来吸引粉丝。
153 人赞同了该回答
答: 还也可能是在利用奥特曼这样的知名IP进行营销,打造出一种与孩子喜欢的卡通形象结合的产品线。他们或许想用奥特曼来提升产品的亲和力和销量,但现在看来他们的行为似乎过于急躁了。
203 人赞同了该回答