首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏亿源通科技HYC

    高速收发模块并行光学MT组件

    平行光学又叫并行光学,是英文“Parallel”的翻译。 什么是并行光学技术?并行光学技术是一种特殊的光通信技术,在链路两端发射并接收信号,通常采用并行光学收发光模块来实现两端的高速信号传输。 在并行光学的信号传输中,链路两端的并行光模块中含有多个发射器和接收器,采用多条光纤,信号通过多条路径传输和接收,并行传输利用可支持每秒 40 至 100 Gigabit 数据速率的多个通道。 在当前100G以及以下速率的数据中心,短距离多模光模块使用的更多是多模并行技术。 1.jpg 并行光学模块更加依赖于光学器件的高密度集成化和封装的小型化,来使得所产生的热量大大少于多个分立器件。 3.jpg MT-FA MT-FA是由MT和光纤阵列FA组成的光纤短跳线,对于FA的精度要求高,能够将FA端面研磨成指定角度,整体体积小、可靠性高,能够实现高密度大通道,广泛应用于并行光模块传输中,如

    1.2K10编辑于 2022-03-23
  • 来自专栏亿源通科技HYC

    高速光模块中的并行光学和WDM波分光学技术

    按照传输模式,光模块可分为并行和波分两种类型,其中并行方案主要应用在中短距传输场景中成本优势较为明显;而在长距离传输场景中,WDM波分方案的应用可明显地节约光纤成本。 并行光学传输在并行光学 (Parallel optics) 的信号传输中,链路两端的并行光模块中含有多个发射器和接收器,采用多条光纤,信号通过多条路径传输和接收,典型的光模块类型包括SR4,SR8,PSM4 MT(MPO)插芯和光纤阵列FA多通道微型连接组件是支持并行光互连的关键部件,用于模块外部光接口连接与模块内部光学耦合,能够集成到光模块板上。 利用MT插芯的小体积、多通道来实现多路光的并行传输,在高速光模块中作为对外的光接口非常易于使用。 如下400G Rx光学集成组件基于Z-block自由空间技术,集成了400G高速光收发模块的ROSA端的所有光学组件,包含Receptacle、准直器、Z-block、lens array、棱镜和底板。

    1K10编辑于 2025-01-25
  • 来自专栏亿源通科技HYC

    应用于高速收发模块的并行光学&WDM波分光学技术

    在数据中心光模块就产生了两种传输方案—并行和波分。在当前100G以及以下速率的数据中心,短距离光模块使用的更多是并行技术。图片什么是并行光学技术? 并行光学技术是一种特殊的光通信技术,在链路两端发射并接收信号,通常采用并行光学收发光模块来实现两端的高速信号传输。 传统的光纤收发模块无法满足日益增长的高速传输需求,而并行光学技术可以成为 4×50G,8×50Gbps传输的经济高效的解决方案。 在并行光学的信号传输中,链路两端的并行光模块中含有多个发射器和接收器,采用多条光纤,信号通过多条路径传输和接收,并行传输利用可支持每秒 10 至 100 Gigabit 数据速率的多个通道。 利用自由空间光学(Free Space Optics)设计,结合准直器,用4个CWDM波长的滤光片通过微光学的方式进行合波和分波。

    2.5K30编辑于 2022-12-19
  • 来自专栏机器学习/数据可视化

    sql知必会3

    将之前学习的数据库知识在整理下,主要是看的**《SQL知必会》**。这本书不愧是经典,入门数据库真的完全足够啦! ? - id号可以省略 笔记: 相应的字段填上相应的信息 字符串需要使用引号 密码使用函数Password 直接插入values值,此时id不能省略 insert into user values(3, "xiaoming", "123456@qq.com", 20, 25.18, Password("xiaoming")); -- id为3也不能省略 插入部分数据 insert into user

    81110发布于 2021-03-02
  • 来自专栏罗西的思考

    模型并行分布式训练 Megatron (3) ---模型并行实现

    [源码解析] 模型并行分布式训练 Megatron (3) ---模型并行实现 目录 [源码解析] 模型并行分布式训练 Megatron (3) ---模型并行实现 0x00 摘要 0x01 并行Transformer 并行和Pipeline并行来复现 GPT3,值得我们深入分析其背后机理。 本系列其他文章为: [源码解析] 模型并行分布式训练Megatron (1) --- 论文 & 基础 [源码解析] 模型并行分布式训练Megatron (2) --- 整体架构 0x01 并行Transformer 此处对应了论文中描述的粗体字: Figure 3. get_tensor_model_parallel_group(), async_op=True) # Delay the start of weight gradient computation shortly (3us

    2.9K20编辑于 2022-11-28
  • 来自专栏sktj

    python 多线程(并行编程 3)

    def function(i): print("function called by thread %i" % i) print(threading.currentThread().getName()) threads=[] for i in range(5): t=threading.Thread(target=function,args=(i,)) threads.append(t) t.start() t.join()

    68010发布于 2019-07-30
  • 来自专栏计算摄影学

    光学系统基本概念挑战3-如何确定光学系统的f-number

    请确定这个光学系统的f-number。

    94020编辑于 2023-09-01
  • 来自专栏算法研习社

    Python面试刷题系列(3)

    说说Python3 和 Python2 之间的区别? import方式:Py3是以绝对路径的方式进行import,Py2则是相对路径方式。 新老式类:Python中的类为多继承方式。 除法运算:Py2的除法:10/3=3:Py3:10//3=3 ;10/3=3.33333335 range:Py2中,range的结果是list类型,xrange的结果是生成器(更高效) ;Py3中,range long数据类型:Py3去除了long类型,现在只有一种整型——int,但它的行为就像Py2版本的long 键盘输入的区别:Py2:raw_input( "提示信息" );Py3:input( "提示信息 一行代码展开该列表[[1,2],[3,4],[5,6]],得出[1,2,3,4,5,6] [j for i in a for j in i] 5. 字典操作中 del 和 pop 有什么区别? 请将[i for i in range(3)]改成生成器 (i for i in range(3)) 13.

    75720发布于 2020-07-20
  • 来自专栏XINDOO的专栏

    Agent设计模式——第 3 章:并行

    , ("user", "原始主题:{topic}") ]) ## 3. 通过将并行结果直接管道化 ## 到综合提示词,然后是 LLM 和输出解析器,构建完整链。 ParallelWebResearchAgent", sub_agents=[researcher_agent_1, researcher_agent_2, researcher_agent_3] ) ## --- 3. 系统设置了三个 LlmAgent 实例作为专门的研究员:ResearcherAgent1 专注于可再生能源,ResearcherAgent2 研究电动汽车技术,ResearcherAgent3 调查碳捕获方法 google.github.io/adk-docs/agents/multi-agents/ Python asyncio Documentation: https://docs.python.org/3/

    52410编辑于 2025-10-27
  • 来自专栏计算摄影学

    光学词汇10-透镜3-正透镜负透镜

    正透镜(Positive Lens)和负透镜(Negative Lens)是光学系统中的两个基本元素,它们分别定义了透镜如何聚焦和散焦光线。 负透镜,又称为凹透镜,是光学系统中“散焦”的元件。与正透镜相反,当光线穿过负透镜时,它们会离开透镜的光轴方向,形成一个发散光束。由于其能够使光线发散,负透镜可以用于眼镜和一些光学仪器中。 它们可以帮助改正近视眼等视觉问题,或者在复杂的光学系统中用于调整光束的方向和形状。 了解正透镜和负透镜在光学系统中的作用,有助于更好地理解光线如何在透镜、镜头和其他光学元件之间传输和变换,从而为设计和优化光学系统提供指导。

    1.6K20编辑于 2023-09-01
  • 来自专栏罗西的思考

    PyTorch分布式优化器(3)---- 模型并行

    [源码解析] PyTorch分布式优化器(3)---- 模型并行 目录 [源码解析] PyTorch分布式优化器(3)---- 模型并行 0x00 摘要 0x01 前文回顾 0x02 单机模型 2.1 本文介绍PyTorch 分布式优化器和PipeDream之中的优化器,主要涉及模型并行(流水线并行)。 于是人们引入了模型并行(model parallel)。 与此对应,优化器也需要做不同的修改以适应模型并行的需求。为了更好的分析,本文首先介绍单机模型并行,然后介绍PyTorch分布式优化器。 模型并行被广泛用于分布式训练。 本stage(数值为 3)对应的是 index 为 3,4 的两个 module,就是下面的 3 ,3.

    1.8K40编辑于 2021-12-10
  • 来自专栏luozhiyun的技术学习

    深入理解Kafka知必会(3

    如果生产者开启事务并向某个分区值发送3条消息 msg1、msg2 和 msg3,在执行 commitTransaction() 或 abortTransaction() 方法前,设置为“read_committed 此时两个 follower 副本各自拉取到了消息,并更新各自的 LEO 为3和4。 此时 leader 副本收到来自 follower 副本的 FetchRequest 请求,其中带有 LEO 的相关信息,选取其中的最小值作为新的 HW,即 min(15,3,4)=3。 两个 follower 副本在收到新的消息之后更新 LEO 并且更新自己的 HW 为3(min(LEO,3)=3)。 Kafka在可靠性方面做了哪些改进? 一个Consumer Group中可以有多个consumer,多个consumer可以同时消费不同分区的消息,大大的提高了消费者的并行消费能力。

    1.5K10发布于 2019-12-25
  • 来自专栏C++的逆袭之路

    C语言之——入门刷题(3

    本文章为C语言入门刷题,每道题都包含了C语言的基础知识点,值得我们去经常复习,并牢记在心的一些题目!! ---- 前言 大佬就可以撤退了!!(当然也可以温故而知新呀!!) 本次为C语言入门刷题!

    52220编辑于 2023-04-12
  • 来自专栏InvQ的专栏

    《sql知必会》——读书笔记(3

    视图一方面可以帮我们使用表的一部分而不是所有的表,另一方面也可以针对不同的用户制定不同的查询视图。比如,针对一个公司的销售人员,我们只想给他看部分数据,而某些…特殊的数据,比如采购的价格,则不会提供给他。特殊的数据,比如采购

    57620发布于 2020-09-27
  • 来自专栏python3

    Python3下的【并行迭代】与【按索引

    在使用python3时,有【并行迭代】与【按索引迭代】,并行迭代相对来说好理解,现在介绍下【按索引迭代】。 废话不多,直接上实例 # Demo:并行迭代 zip函数names = ["anne","beth","george","damon","bob"]ages = [12,45,32,102,101,103

    98020发布于 2020-01-03
  • 来自专栏光芯前沿

    Nature正刊:微软融合3D光学+模拟电子打造高效模拟光学计算,实现AI推理与组合优化双突破

    Microsoft英国剑桥研究院在Nature正刊上发表了一项重磅研究,提出了一种高效模拟光学计算机(AOC),通过融合模拟电子与三维(3D)光学技术,在单一平台上实现AI推理与组合优化的加速 ,通过3D光学实现并行化与可扩展性。 两路光分别入射至SLM1(正权重)与SLM2(负权重),完成“光强×权重”的元素级乘法; 3. 4F系统将SLM列像素光汇聚至光电探测器阵列,实现列求和,得到光学矩阵-向量乘法结果; 4. ④ 3D光学与模拟电子的协同设计 AOC突破传统平面光学的规模限制,通过3D光学与模拟电子的协同实现可扩展性: - 3D光学优势:利用球面光学元件与4F系统,在三维空间实现光信号的高效扇入/ ② 技术挑战与路径 - 光学小型化:当前4U机架系统需通过微透镜阵列与3D打印微光学(如双光子聚合技术)缩小至厘米级,衍射极限可通过微透镜NA优化(目标0.5以上)缓解; - 模拟ASIC开发:现有离散电子元件功耗占比超

    77910编辑于 2025-09-11
  • 来自专栏罗西的思考

    深度学习流水线并行 PipeDream(3)--- 转换模型

    [源码解析] 深度学习流水线并行 PipeDream(3)--- 转换模型 目录 [源码解析] 深度学习流水线并行 PipeDream(3)--- 转换模型 0x00 摘要 0x01 前言 1.1 改进 流水线并行其他文章链接如下: [源码解析] 深度学习流水线并行Gpipe(1)---流水线基本实现 [源码解析] 深度学习流水线并行GPipe (2) ----- 梯度累积 [源码解析] 深度学习流水线并行 GPipe(3) ----重计算 [源码解析] 深度学习流水线并行之PipeDream(1)--- Profile阶段 [源码解析] 深度学习流水线并行 PipeDream(2)--- 计算分区 0x01 生成相关配置文件,比如数据并行配置文件,模型并行配置文件。 4, 5, 6, 7, 8, 9]} } 3.5.3 模型并行 mp_config.json 是专门为模型并行生成的配置文件,举例如下。

    66030发布于 2021-09-10
  • 来自专栏罗西的思考

    深度学习流水线并行 GPipe(3) ----重计算

    [源码解析] 深度学习流水线并行 GPipe(3) ----重计算 目录 [源码解析] 深度学习流水线并行 GPipe(3) ----重计算 0x00 摘要 0x01 概述 1.1 前文回顾 1.2 Gradient ,目前分布式模型训练有几个必要并行技术: 流水并行,尤其是如何自动设定流水; 梯度累加(Gradient Accumulation); 后向重计算; 1F1B 策略(我们将采用PipeDream分析); 流水并行存在一个问题:显存占用太大。 重计算并不是单独为流水并行设计的,并且之前大多使用在单卡或者数据并行场景下。 第三,来到了下面一行的紫色2号,它依赖于上面的紫色3号来计算(回忆一下,后向传播计算需要前向计算的输出),此紫色3号是checkpoint,在内存中存在,所以正常执行反向传播 第四,来到了下面一行的白色

    1.3K20发布于 2021-09-08
  • 来自专栏ATYUN订阅号

    3D打印全光学固态神经网络,光速执行AI分析

    但来自加州大学洛杉矶分校的研究人员表明,它实际上可以固化,这些层本身就是真正的3D打印透明材料层,印有复杂的衍射图案,这些衍射图案可以对数字进行数学处理。 正如研究人员所说:给定层上的每个点或者透射或反射入射波,其表示通过光学衍射连接到后续层的其他神经元的人造神经元。通过改变相位和幅度,每个“神经元”是可调的。 一旦完成,他们采用矩阵数学层并将其转换为一系列光学变换。例如,一个图层可以通过将来自两者的光重新聚焦到下一层的单个区域来将值加在一起,但真正的计算要复杂得多。 通过在印刷板上布置数百万个这些微小的变换,进入一端的光从另一个结构出来,系统可以判断它是否为1,2,3等,准确度高于90%。 那么这有什么用? 这一形式目前确实没什么用处,但神经网络是非常灵活的工具,系统识别字母而不仅限于数字是完全可能的,这使得光学字符识别系统完全在硬件中工作,几乎不需要功率或计算。

    49120发布于 2018-08-06
  • 来自专栏数据科学专栏

    大数据知必会:Zookeeper(3)集群环境安装

    安装前准备集群环境下,至少需要3台服务器。 IP地址 主机名称10.0.0.5node1 10.0.0.6node2 10.0.0.7node3 需要保证每台服务器的配置都一致,以下步骤在3台服务器上都需要做一次。 在3台服务器上都复制一份配置文件。 由于集群环境的IP地址不同,所以3台服务器的配置文件可以保持完全相同。 .1=10.0.0.5:8881:7771server.2=10.0.0.6:8881:7771server.3=10.0.0.7:8881:7771在3台服务器上都创建数据存放目录。

    65230编辑于 2023-01-30
领券