首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏我爱计算机视觉

    谷歌 Pixel 4 人像模式拍照算法揭秘

    在 Pixel 4 上,我们对人像功能进行了两项重大改进,并充分利用 Pixel 4 的双摄像头和全像素双核(Dual-Pixel, DP)自动对焦系统来改进深度估算,使用户无论远近都能拍出非常漂亮的人像模式照片 双摄像头是对 DP 的补充 Pixel 4 的广角镜头和长焦镜头相距 13 毫米,远远大于 DP 的基线长度,由此带来的更大视差使得远距离物体的景深更易于估算。 在 Pixel 4 上, DP 和双摄像头的基线彼此垂直,因此我们可以估算出任意方向线条的景深。 凭借此补充信息,我们可以估算出此远距离物体的景深,并能降低所有场景的深度误差。 在 Pixel 4 的人像模式中,我们使用 TensorFlow 训练卷积神经网络,从而将此方法拓展到估算 DP 和双摄像头的景深。 此外,我们还要感谢 Google Camera 团队帮忙将这些算法集成到 Pixel 4 中。

    2.6K10发布于 2020-02-21
  • 来自专栏AI系统

    【AI系统】谷歌 TPUv4 与光路交换

    此外,3D Torus 互联方式的首次亮相,以及 TPU v4 Pod 的构建,展示了谷歌在大规模并行计算和高效互联方面的突破。 谷歌4 \times 4 \times 4 = 64 个 TPU v4 芯片互联在一起,形成一个立方体结构(Cube)。 光互联谷歌在 TPU v4 Pod 中应用了光交换器(OCS)为了避免计算等通信。 谷歌的 TPU v4 能够紧密耦合 4,096 个 TPUv4 引擎,实现总计 1.126 exaflops 的 BF16 计算能力。 计算集群对比讲完 TPU v4 的基本结构之后,我们来看一下在当时谷歌的竞品是什么一个状态。

    1K11编辑于 2024-11-27
  • 来自专栏对白的算法屋

    谷歌全新PaLM-2,效果并未超越GPT-4

    它被用于其他最先进的模型,例如Med-PaLM 2和秒帕尔,并为谷歌的生成式人工智能功能和工具提供支持,如巴德和PaLM API。 技术报告解读 与GPT-4对比如何? 报告里的这句话很有意思: PaLM 2 outperforms PaLM across all datasets and achieves results competitive with GPT-4. 说明还没有超越GPT-4, 后续的数据也证明了这点。 整体: 对比PaLM有很大提升: Scaling law experiments 我们独立推导出大型模型的缩放定律。

    97420编辑于 2023-09-01
  • 转载:【AI系统】谷歌 TPUv4 与光路交换

    此外,3D Torus 互联方式的首次亮相,以及 TPU v4 Pod 的构建,展示了谷歌在大规模并行计算和高效互联方面的突破。 谷歌4×4×4=64 个 TPU v4 芯片互联在一起,形成一个立方体结构(Cube)。再把 4×4×4 Cube 用光互联连在一起形成一个总共有 4096 个 TPU v4 超级计算机。 光互联谷歌在 TPU v4 Pod 中应用了光交换器(OCS)为了避免计算等通信。 谷歌的 TPU v4 能够紧密耦合 4,096 个 TPUv4 引擎,实现总计 1.126 exaflops 的 BF16 计算能力。 计算集群对比讲完 TPU v4 的基本结构之后,我们来看一下在当时谷歌的竞品是什么一个状态。

    64811编辑于 2024-12-11
  • 来自专栏Python编程与实战

    暴打GPT-4谷歌发布史上最强大模型Gemini

    大模型:Gemini、编辑:量子位 传闻中的谷歌杀手锏Gemini,来了! 就在刚刚,谷歌CEO皮猜和哈萨比斯在谷歌官网联名发文,宣布推出这一万众瞩目的多模态大模型。 标题明晃晃写着“最大”、“最强”,主打的就是一个干爆GPT-4。 尽管没有透露Ultra和Pro版本的具体参数规模,但技术报告中提到,谷歌使用TPUv5e和TPUv4来训练Gemini。 训练Gemini Ultra使用了跨多个数据中心的大量TPUv4。 因此Gemini一出,谷歌也当即强调:Gemini将通过谷歌产品推向数十亿用户。 率先上线的是Gemini Pro。从今天起,谷歌的聊天机器人Bard将由Gemini Pro微调版本驱动。 https://storage.googleapis.com/deepmind-media/gemini/gemini_1_report.pdf [3]https://youtu.be/jV1vkHv4zq8

    52110编辑于 2023-12-13
  • 谷歌Gemma 4遇上国产顶流:开源模型哪家强?

    题图摄于北京黄花水长城 谷歌上周发布 Gemma 4 系列开源模型,首次采用 Apache 2.0 协议,从手机到服务器全场景覆盖,从“替代品” 战略转向“争夺基础设施层”。 接下来,我们从开源协议、硬件成本、代码能力、多模态表现、部署难度五个维度入手,把谷歌 Gemma 4 和国产顶流模型放在一起比一比。谁更划算?谁更好养?谁才是你的最佳队友? 深度解读: 谷歌 Gemma 4 最大亮点之一,是全面采用 Apache 2.0 协议,取代了此前令人头疼的自定义许可证。 但如果放眼所有预算范围,从几百元的树莓派到十万元的服务器,谷歌 Gemma 4 系列才是当之无愧的全能性价比之王。 结语 2026年的开源模型生态,就像一个热闹非凡的人才市场,各路“AI打工人”摆摊亮相: 综合能力雷达图 • 谷歌Gemma 4 像海归精英——背景光鲜(谷歌出品)、能力全面(多模态+Agent)、适应各种岗位

    30420编辑于 2026-04-13
  • 来自专栏有三AI

    【行业进展】谷歌4大AI黑科技部门,你可知

    时间回退到2016年3月15日,当AlphaGo大战李世石的比分最终定在了1:4,一棋激起千层浪,在全世界掀起了人工智能浪潮,被视为新一轮的人工智能的发展里程碑。 完成了这一系列围棋巅峰对决的DeepMind公司早在2014年被谷歌4亿英镑收购,作为一家成立于英国伦敦的人工智能初创公司, 它的长远目标是 " 解决智能难题 "(solve intelligence 总结: 谷歌自诞生之日起就有着创新的基因,也正是创始人Larry Page幻想乘电梯走出地球的想象才有了X实验室的诞生,正是有着敢想敢做的勇气与资本让谷歌内部的各个部门在积极探索,在不断创新中向世人展现令人惊叹的黑科技 尽管谷歌的X实验室与DeepMind在创新探索中部分项目仍然处于亏损状态,但创新成果的巨大潜力能逐渐改观,期待未来谷歌在保障用户隐私的同时能继续为这等待创新改变的世界带来更多的惊喜。 google的黑科技部门远远不止上面4个,从搜索引擎到邮箱地图,到计算机摄影,Google是真正all in ai的智者,试问哪个技术人员不想以去Google工作为荣,加油吧。

    69810发布于 2019-07-25
  • 来自专栏HyperAI超神经

    谷歌发布 HEAL 架构,4 步评估医学 AI 工具是否公平

    HEAL 架构:4 步评估皮肤科 AI 工具公平性 HEAL 框架包含 4 个步骤: 确定与卫生健康不公平有关的因素,并定义 AI 工具性能指标 明确并量化先前存在的健康差异 (disparities) 例如: * 2019 年,谷歌云的负责任 AI 产品审查委员会、谷歌云负责任 AI 交易审查委员会,为避免加重算法不公平或偏见,暂停开发与信贷有关的人工智能产品。

    39210编辑于 2024-05-13
  • 来自专栏互联网数据官iCDO

    【精华知识】初学者的高级谷歌分析指南-Episode 4

    但是你也有能力使用GA工具本身来做谷歌自然搜索流量的关键词分析。查找路径:流量获取 > Search Console > 查询。 在这些策略中,你能发现谷歌商店SEO策略中的漏洞吗?在用户需求方面,你的洞见怎样与你在内容分析中的发现相得益彰呢?这真是个有意义的事情。 在AdWords中,关键字报告展示的是你从谷歌购买的关键字信息。搜索查询指的是,当你的搜索广告由于触发关键字被展现的时候,人们实际在谷歌搜索框中输入的关键字是什么。 你刚刚完成了对整个移动指标的研究,那么怎样才能判断谷歌商店的表现是好还是不好呢?是的,你可以研究其过去表现的趋势。但是,行业中其他与你的网站类型和大小差不多的人该如何判断呢?

    1.3K60发布于 2018-03-02
  • 来自专栏技术人生黄勇

    谷歌开源Gemma 4:256K原生多模态,免费商用

    谷歌刚刚发布了新一代开源大模型Gemma 4,直接把Gemini 3的核心技术下放了。 2026年4月2日,谷歌如约献上复活节惊喜:Gemma 4 正式开源。 更详细的性能对比表: 基准测试 Gemma 4 31B Gemma 4 26B MoE Gemma 4 E4B Gemma 4 E2B MMLU Pro 85.2% 82.6% 69.4% 60.0% 覆盖最完整:从 2B 手机端到 31B 服务器端,每个尺寸都给你准备好了,不像有些大厂只放出来大模型 四、行业影响:谷歌这条"技术下放"路线走对了 谷歌现在的策略很清晰: • 闭源旗舰:Gemini 系列扛着 -DGGML_CUDA=ON && make -j # 启动 E4B 模型(Q4_K_M 量化) export LLAMA_CACHE="unsloth/gemma-4-E4B-GGUF" . Apache 2.0 协议,真·免费商用,企业可以放心用 ✅ 生态快:发布当天llama.cpp/unsloth/硬件厂商都跟上了 对于开源社区来说,谷歌这波又是诚意满满的投喂。

    83310编辑于 2026-04-09
  • 来自专栏安恒信息

    微软谷歌发现新漏洞“变种4” 许多现代芯片将受影响

    据路透社北京时间5月22日报道,微软和谷歌网络安全研究员发现了新的芯片漏洞,该漏洞与今年1月出现的Spectre和Meltdown漏洞有关,将对许多现代计算芯片造成影响。 ? 最新的芯片漏洞名为Speculative Store Bypass或“变种4”,因为它与此前发现的漏洞属于同一家族。周一,微软和谷歌研究人员公布了他们的这一发现。 英特尔在一篇博客中表示,该公司将“变种4”漏洞标记为中级风险,因为与该漏洞有关的多个缺陷已经通过安全补丁解决。

    49230发布于 2018-07-24
  • 来自专栏云深知网络 可编程P4君

    赚点外快: 谷歌编程之夏期待 P4 的参与

    首先 什么是谷歌编程之夏 简单讲就是学生党或者18+ 为开源社区写代码最后谷歌买单 根据项目规模 以及相应区域的生活成本 谷歌为参与者提供fair compensation P4社区的最新声明 我们很高兴地宣布将参加 P4 社区对今年项目的简要概述: 为 P4C 开发文档网站 该项目涉及构建一个主站来改进 P4 编译器 (P4C) 的文档。 将 p4-constraints 前端集成到 P4C 中 p4-constraints 扩展了 P4 语言,支持约束注释。这些约束可以在运行时使用 p4-constraints 库强制执行。 目前,该库与 P4C 是独立的。我们希望将 p4-constraints 前端直接集成到 P4C 中。 P4 formatter P4语言目前没有标准化和开源代码的formatter。 该项目的重点是将 P4 formatter程序集成到官方 P4 编译器 P4C 中。这项工作涉及解决当前 AST/IR 处理注释和格式选项的限制。

    48610编辑于 2024-04-10
  • 来自专栏机器之心

    Transformer论文引用破4万,两位作者离开谷歌创业

    机器之心报道 编辑:张倩 「在谷歌,我们训练出了越来越大的 Transformer,梦想着有朝一日构建一个通用模型来支持所有 ML 用例。 除了 Ashish Vaswani 和 Niki Parmar,该公司还聚集了多位 AI 领域的顶级研究者(基本都在谷歌工作过),包括: 前谷歌大脑研究工程师 Anmol Gulati,他参与了谷歌的大规模语音和语言建模研究 ; 前谷歌大脑研究科学家 Augustus Odena,他参与构建了谷歌的代码生成模型; 前 OpenAI 加州实验室工程副总裁 David Luan,后来也加入过谷歌大脑,他是 GPT-2、PaLM ; 前谷歌 ML 产品经理 Kelsey Schroeder,她曾领导谷歌大模型生产基础设施产品; 曾在谷歌大脑实习的 MIT 博士 Maxwell Nye,他的研究重点是使用深度学习和符号技术来自动编写代码 在谷歌实习期间,他曾使用非常大的语言模型(> 1000 亿个参数)来编写和理解 Python 程序。 Adept 创始团队。 那么,这些大牛为什么要离开谷歌这种大厂自己创业呢?

    82930编辑于 2022-04-29
  • 来自专栏机器之心

    ChatGPT原班人马成立的公司,被谷歌紧急投了4亿美元

    据英国《金融时报》报道,2022 年底,谷歌向这家初创公司投资了约 3 亿美元(彭博社称近 4 亿美元)不过并未第一时间披露这一消息。 消息昨天曝出后,谷歌和 Anthropic 拒绝发表评论,但分别确认了合作伙伴关系,Anthropic 表示将使用谷歌的云计算服务。 谷歌似乎复制了微软和 OpenAI 之间的合作关系。 Anthropic 由几位离开 OpenAI 的研究人员在 2021 年创立,包括 OpenAI 前研究副总裁 Dario Amodei、GPT-3 论文一作 Tom Brown 等人,并于去年 4 月获得更多关注 这篇论文描述了一个 520 亿参数的模型 ——AnthropicLM v4-s3。该模型是在一个大型文本语料库上用无监督方式训练的,很像 OpenAI 的 GPT-3。 谷歌已经拥有大量开发人工智能语言系统的内部专业知识,《金融时报》表示,这笔交易的一个动机就是建设谷歌的云计算业务。

    46930编辑于 2023-03-29
  • 来自专栏新智元

    TPUv4开放使用!谷歌新一代TPU性价比有多高?

    自去年开始,谷歌就开始不断放风TPUv4,在论文中描述新一代TPU的架构设计,从前几代TPU设计中不断吸取经验。 5月19日,谷歌正式推出新一代人工智能ASIC芯片TPUv4,运算效能是上一代产品的2倍以上,由4096个TPUv4单芯片组成的pod运算集群,可释放高达1exaflop(每秒10的18次方浮点运算)的算力 前段时间谷歌发布的5400亿参数语言模型PaLM就是用两个TPUv4 pods训练了大约64天得到的。 而具有多个向量的芯片更便宜,也更容易通过供应链进入谷歌手中。 TPUv4i 推理晶片采用台积电公司的七纳米工艺制造,一年半前投产,作者猜测通用的TPUv4也是采用同样的七纳米工艺。 谷歌系统和服务基础设施副总裁 Amin Vahdat 提供了一张图,通过运行不同的神经网络模型,展示了 TPU与A100的对比结果,以及谷歌云上的 TPUv4 pod如何与微软 Azure 上的类似规模的

    2.1K40编辑于 2023-01-06
  • 来自专栏VRPinea

    谷歌定于10月4日开发布会,Daydream系列将面世?

    日前,谷歌已经正式宣布将会在10月4日召开发布会,根据之前的传闻预测,本次发布会上最有可能亮相的是其全新的Pixel手机、谷歌Home以及Daydream头显。 谷歌日前在YouTube上传了一个视频,内容中先是出现了其传统的搜索框,慢慢变成一个智能手机的形状。最后,显示了谷歌的“G”标志以及10月4日。 而除了手机,谷歌也有可能会发布Google Home、Daydream VR头显、智能手表以及一个4K 级别的Chromecast。 ? 它主要的特色就在于其将提供4K级别的内容。当然在今年开发者大会上发布的谷歌Home也有可能出现在10月4日的发布会上。这个花瓶状的设备内置了谷歌即将推出的谷歌助理,其功能类似于亚马逊Echo。 谷歌自己的头显设备则可能被命名为“DaydreamView”。 ? 10月4日很快就要到来了,至于Daydream会不会出现,大家拭目以待吧!

    99660发布于 2018-05-14
  • 来自专栏新智元

    追踪报道:谷歌 TPU 处理器实现 4 大机器学习突破

    如果在机器学习领域没有野心,谷歌也就不是谷歌了。去年这个时候,谷歌发布了定制 TPU 硬件加速器,用以加速其 TensorFlow 深度学习框架。 现在,谷歌以论文的形式,从技术角度详述了 TPU 能给机器学习带来怎样的提升,展示了谷歌将如何影响由定制硅片驱动的机器学习的未来发展。 理由1:谷歌对能给自己带来独特竞争优势的东西一向秘不示人。TPU 可以让机器学习模型处理海量工作时更快更高效,谷歌为什么要把它拿出来分享或是出售? 新智元此前曾报道过,谷歌云服务副总裁 Diane Greene 表示,谷歌并没有对外销售 TPU 的打算——抛开 TPU 本来就是为了谷歌自己设计的这个事实以外,谷歌对外销售芯片的可能性很低,就像 Facebook 原文地址:http://www.infoworld.com/article/3188090/artificial-intelligence/4-machine-learning-breakthroughs-from-googles-tpu-processor.html

    83540发布于 2018-03-27
  • 来自专栏深度学习与python

    InfoQ 专访微软谷歌专家:Kubernetes IPv4IPv6 双协议栈

    作者 | Rags Srinivas 译者 | 盖磊 策划 | 丁晓昀 双协议栈(Dual Stack),即同时提供对 IPv4/IPv6 地址的支持。 为此,InfoQ 择机访谈了微软的 Khaled (Kal) Henidak 和谷歌的 Tim Hockin。 在 IPv4/IPv6 双协议栈网络上运行 Kubernetes,可在不增加复杂性和损失性能的情况下,支持工作负载本地访问 IPv4 和 IPv6 端点。 例如,IPv4 限定为 32 位,即提供 40 亿个 IP 地址。“私有”IPv4 地址范围仅支持数百万个 IP,但通常基于 CIDR 的路由意味着需要整块地分配地址空间。 双协议栈模式支持各工作负载同时访问已有的 IPv4 地址和新的 IPv6 地址。例如,许多网站仍然不支持 IPv6,所以有时需使用 IPv6,有时需使用 IPv4

    96020编辑于 2022-03-23
  • 来自专栏机器之心

    新大模型能超GPT-4,Bard全面升级,谷歌反击ChatGPT

    PaLM 二代模型 支持多语言、更强的数学、代码能力 首先,谷歌给出了自己对标 GPT-4 的大模型 PaLM 2。 PaLM 基于谷歌 Pathways 架构,其第一个版本的模型于 2022 年 4 月发布。 会上,谷歌并没有给出有关 PaLM 2 的具体技术细节,只说明了它是构建在谷歌最新 JAX 和 TPU v4 之上。 在皮查伊演讲的同时,谷歌放出了 PaLM 2 的论文,整整 91 页。但令人失望的是,PaLM 2 论文远没初代 PaLM 有诚意,和 GPT-4 一样,更像是技术报告。 谷歌并未透露 Gemini 的更多信息,我们只知道该模型是在今年才开始研发的,将具有像 GPT-4 一样的万亿参数。目前 Gemini 仍在训练中,但已经展示出了以往模型中从未见过的多模态能力。

    47290编辑于 2023-05-16
  • 来自专栏网络虚拟化

    谷歌发布最强AI大模型Gemini,据称智力测试优于GPT-4

    随着人工智能技术的不断发展,谷歌最近发布了一款名为Gemini的AI模型,该模型被认为是目前最强大的AI模型之一。 本文将从技术角度对Gemini进行解读。 首先,让我们简要了解一下Gemini。 Gemini是由谷歌研究团队开发的一款基于Transformer架构的预训练语言模型,旨在在各种自然语言处理任务中表现出色。

    60910编辑于 2023-12-11
领券