马斯克xAI疯狂融资;腾讯位居国内AI发明专利企业第一|图灵周报

未来图灵 2024-04-29 16:39:57

图灵周报:精选AI行业一周大事件,从良莠不齐的行业资讯中挑选出最有价值的信息,配上专业点评,值得你细读、品味。

01黄仁勋交付首块超级AI芯片

图源:社交媒体截图

4月24日,英伟达首台超级AI芯片DGX H200系统交付,英伟达创始人CEO黄仁勋亲自送货上门,OpenAI成为首个用户。OpenAI总裁兼联合创始人格雷戈里·布罗克曼(Greg Brockman)在X平台上发布了这一消息,并发出一张与黄仁勋及OpenAI CEO奥尔特曼(Sam Altman)的合影。

点评:黄仁勋亲自向OpenAI交付DGX H200不仅是加强与合作伙伴关系的象征性姿态,而且证明了尖端硬件在推进人工智能技术方面发挥的关键作用。黄仁勋称其“将推进AI、计算、以及文明”。随着这两个行业领导者继续合作,展示了人工智能的创新潜力是无限的,有望为各个行业带来变革。DGX H200是英伟达目前最新且最先进的量产AI芯片,代表着人工智能技术领域的重大飞跃。它也是目前世界上最强大的人工智能专用芯片硬件。此次交付对于人工智能研究领域的领先者OpenAI来说是一个关键时刻。

02苹果与OpenAI重启合作谈判

图源:Pixabay

4月27日消息,据彭博社最新透露,苹果公司目前正在与OpenAI进行新一轮的潜在合作谈判,意在探讨将GPT技术融入iOS和iPadOS 18系统中的可能性。这一动态显示出苹果对于人工智能技术的高度重视,并可能为用户带来更为智能和便捷的操作体验。

点评:有传闻指出苹果公司还在自主研发设备端的大型语言模型。然而,由于这种模型运行在设备端,其性能可能在某些情况下不及云端的竞品。为了弥补这一不足,苹果公司正在考虑通过授权使用谷歌等其他AI服务提供商的技术来增强自身的AI实力。除了与OpenAI的合作外,苹果公司上月还被传出与谷歌就Gemini AI引擎的集成进行了讨论,意在将其融入到运行iOS和iPadOS 18的iPhone中。这一系列的动态显示出苹果在AI领域的布局正在逐步深入。

03马斯克旗下AI初创公司将达成60亿美元融资

图源:Pixabay

4月26日消息,据外媒The Information和彭博社的综合报道,埃隆·马斯克旗下的人工智能企业xAI预计将在未来两周内完成一轮巨额融资,金额高达60亿美元(折合人民币约435亿元)。此轮融资成为了AI模型创业公司中规模最大的一笔。

点评:新一轮的巨额融资将为xAI带来更多的AI算力资源,有助于其与行业内的其他重量级选手,如OpenAI和Anthropic等,展开更为激烈的模型竞争。马斯克透露,xAI的下一代Grok模型当前正在2万块英伟达H100上进行紧张的训练,而随着技术的不断进步,未来的Grok 3预计将对AI GPU的需求增加至惊人的10万块。这无疑预示着xAI在人工智能领域的雄心壮志和未来发展的广阔前景。

04清华大学成立人工智能学院

图源:清华大学公众号截图

4月27日消息,清华大学宣布成立人工智能学院,聚焦“人工智能核心基础理论与架构”和“人工智能 + X”两个重点方向,以高定位和新机制建设中国自主的“AI 顶尖人才和原始创新基座”,为实现高水平科技自立自强提供有力支撑。

点评:清华大学在人工智能人才培养和科学研究方面有着深厚的积累,是国内最早开展人工智能教学和科研的单位之一,一批清华校友现已成为我国人工智能产业的中坚力量。新成立的清华大学人工智能学院将立足国家战略布局,进一步创新人才培养模式,吸引和汇聚一批世界顶尖人才,推动实现基础研究和关键核心技术的突破,打造垂直领域合作平台,深化产学研用协同创新,努力引领中国人工智能发展,建设成为世界顶尖的人工智能人才高地和创新高地。

05腾讯、百度位列中国AI发明专利企业排行冠亚军

图源:IPRdaily中文网

4月22日消息,全球知识产权综合信息服务提供商IPRdaily发布中国人工智能发明专利企业排行榜(TOP50)。数据显示,腾讯以15626件发明专利排名第一;百度以13723件发明专利排名第二;平安集团以13139件发明专利排名第三。

点评:该榜单统计近十年在中国申请并公开的人工智能发明专利,“某企业专利”指的是该企业和该企业同一控股股东下的关联公司作为原始申请人及受让人在中国申请的专利。其提取的数据提取时间范围为2014年4月1日至 2024年3月31日。

06商汤发布日日新5.0大模型

图源:商汤官网

4月23日下午,在2024年商汤技术交流日上,商汤科技正式发布“日日新5.0”大模型,该模型采用MoE混合专家架构,基于超过10TB tokens训练,推理上下文窗口200K,知识、推理、数学、代码全面对标GPT-4 Turbo。

点评:百模大战后,端侧大模型一直是AI巨头的兵家必争之地。所谓端侧大模型,是指运行在设备端的大模型,通常比通用大模型参数量要小,因此可以使用端侧算力直接运行。对网络条件的要求也更低,隐私不必离开设备且无需云端算力,端侧AI都可以生成回答,因此拥有更低的成本。

0 阅读:4

未来图灵

简介:在这里,每个人都看得懂人工智能。