一.实验拓扑 二.实验编址表 设备 接口 IP 地址 子网掩码 网关 PC-1 Ethernet 0/0/1 10.0.1.1 255.255.255.0 N/A PC-2 Ethernet 0/0/1 255.255.255.0 N/A PC-3 Ethernet 0/0/1 10.0.1.3 255.255.255.0 N/A 更改PC1-3 进行MAC更改 PC-1 00-01-00-01-00-01 PC 在PC-1上使用ping命令访问PC-2, 这样一来,SW1便会分别接收到以PC-1的MAC地址为源地址和以PC-2的MAC地址为源地址的数据帧。 在SW1上查看 MAC地址表 PC-1 Ping PC-3后查看MAC表 接下来改 PC-3 的MAC地址为 PC-2 因为 MAC 地址表与 ARP 表不符 再Ping 10.0.1.2 和 10.0.1.3
实验内容 本实验模拟了一个简单的公司网络场景,SW1和SW2为楼层交换机,PC-1和PC-3属于公司的部门A,PC-2和PC-4属于公司的部门B,PC-5属于部门A和部门B的上级部门C。 VLAN 30 通信,VLAN 10 与VLAN 20 不通 实验遍址表 设备 接口 IP地址 子网掩码 网关 PC-1 Ethernet 0/0/1 10.0.1.1 255.0.0.0 N/A PC pvid vlan 30 port hybrid tagged vlan 30 port hy un vlan 10 20 30 q 三.实验验证 PC-1 Ping PC-5 PC-1 Ping PC -2 PC-2 Ping PC-5 XX PING XX 结果 PC-1 Ping PC-5 通 PC-1 Ping PC-2 不通 PC-2 Ping PC-5 通
C0和D0作一次循环左移得到C1和D2; > 循环左移的规则为:16次循环,每次左移 1 1 2 2, 2 2 2 2, 1 2 2 2, 2 2 2 1 C1和D2合并为56位,再经过子密钥换位表PC -2的变换后,由56位变成48位,即得到第一个子密钥K1 > 子密钥换位表PC-2 14 17 11 24 01 05 03 28 15 06 21 10 23 19 12 04 26 08 16 07
实验内容实验 R2 为某公司总部,R1 与 R3 是两个分部,主机 PC-1 与PC-2 所在的网段分别模拟 此时 R1 上存在两 条先前经过手动配置的静态路由条目,且它们的下一跳和出接口都一致。 再测试主机 PC-1 与 PC-2 间的通信。图片 发现主机 PC-1 与 PC-2 间的通信正常,证明使用默认路由不但能够实现与静态路由同样的效果,而且还能够减少配置量。 图片 再次测试主机 PC-1 与 PC-2 间的通信。图片 主机 PC-1 与 PC-2 间的通信正常。
所以最后,只有PC-2和PC-6能收到这个帧,其他的VLAN收不到该X帧。 而PC-2收到Y帧后,将其丢弃;PC-6收到后,进行后续处理)。 原理四: 该图显示的是:PC-1向PC-3发送了一个单播帧Z。 交换机的VLAN 2的MAC地址表项中在正常情况下是不存在关于PC-3的MAC地址的表项的,所以,交换机会向PC-2和PC-6的端口泛洪Z帧。 最后的结果是:PC-2和PC-6会收到Z帧,并将其丢弃;而PC-3无法收到Z帧,因为交换机阻断了PC-1和PC-3之间的二层通信。 结果:PC-2和PC-4都会接收到Z帧,但是PC-6无法收到Z帧,这是因为交换机阻断了PC-1和PC-6之间的二层交换。
D0作一次循环左移得到C1和D2; 循环左移的规则为:16次循环,每次左移 1 1 2 2, 2 2 2 2, 1 2 2 2, 2 2 2 1 C1和D2合并为56位,再经过子密钥换位表PC -2的变换后,由56位变成48位,即得到第一个子密钥K1 子密钥换位表PC-2 14 17 11 24 01 05 03 28 15 06 21 10 23 19 12 04 26 08 16 07
C1(28位) = 1110000110011001010101011111 D0左移1位为D1: D1(28位) = 1010101011001100111100011110 将C1和D1合并后,经过PC -2表置换得到子密钥K1,PC-2表中去除了第9,18,22,25,35,38,43,54位。 PPC-2表为6X8的表,PC-2表如下: 14,17,11,24,01,05, 03,28,15,06,21,10, 23,19,12,04,26,08, 16,07,27,20,13,02, 41,52,31,37,47,55 , 30,40,51,45,33,48, 44,49,39,56,34,53, 46,42,50,36,29,32 由于PC-2表为6X8的表,经PC-2置换后的数据为48位,置换后得到密钥K1, K1 C2(28位)= 1100001100110010101010111111 D2(28位)= 0101010110011001111000111101 C2和D2合并后为56位,经过PC-2表置换得到密钥
4c1f-cc17-48bd SW2 4c1f-ccda-40e8 SW3 4c1f-cc6c-011c MAC地址越小越优 SW1<SW3<SW2 设备 IP地址 PC-1 192.168.1.1/24 PC ) MSTP配置实验 实验拓扑 实验配置 设备 IP地址 子网掩码 网关 所属VLAN PC-1 192.168.10.10 255.255.255.0 192.168.10.254 VLAN 10 PC
场景描述:首先,我们在PC-1 谷歌浏览器登录谷歌账号,因各种原因,需要在PC-2 使用。当我们尝试使用 VPN 去登录的时候,提示我们登录失败,或者其他问题。
图三:基于IPv10协议,支持使用IPv6协议的主机与使用IPv4的主机之间进行通信 图三中,主机PC-1只有IPv6地址,而主机PC-2只有IPv4地址,两者均都支持IPv10。 当主机PC-1往主机PC-2发送数据包时,主机PC-1使用IPv10协议,并在IPv10数据首部的目的地址中填入IPv4的地址。 三、 支持IPv10的P4交换机 ?
如果家用计算机(PC-1)上的文件必须与工作中的计算机(PC-2)上的文件保持同步,则可以通过将PC-1与便携式USB驱动器进行同步,然后再将PC-1与便携式USB驱动器进行同步来实现同步。 驱动器正常工作,并在PC-2和便携式USB驱动器之间执行相同的同步。
公司中办公区和财务部可以访问外网,而办公区无法访问财务部,财务部不影响上网 实验遍址表 设备 接口 IP地址 子网掩码 默认网关 PC-1 GE0/0/1 10.0.10.1 255.255.255.0 10.0.10.254 PC
会广播发送ARP请求,请求中包含着PC2的IP地址,当PC2收到PC1的ARP请求后,会把PC1的IP地址和Mac地址存放在自己的ARP缓存表中,然后会把回复ARP应答给PC1,这时候PC1收到回复,则会把pc -2的ip地址和pc-2的mac地址缓存到arp表中。
通过设置MSTP,使PC-1走SW3 -> SW1 -> R1的道路,PC-2走SW3 -> SW2 -> R1的道路,实现负载均衡,合理分配网络流量。
每次迭代将左右28bit密钥做左移1位的运算,然后再进行 PC-2的置换,组合再一起后得到ki。
但随着AI的深入,Microsoft News方面逐渐转向 AI,其鼓励出版商和新闻工作者使用AI辅助工作,或用AI替代人工进行内容的处理、过滤、发表。 微软作为全球名企,每个改变都会引起其他企业效仿和学习,这一次AI替代编辑人员的改变也将影响传媒行业的发展。国外传媒AI之路是如此,国内传媒AI化之路也在逐渐升温。 传媒行业正在AI化 目前为止,AI对于各行各业起到的作用都是正面性的,传媒行业也不例外。 AI化。 不同于百度重点关注给主流媒体赋能,搜狗主要通过AI合成主播切入AI传媒市场。
刚才又刷到一个博主的简介:“资深Ai自媒体、Ai 编程实践者”。 我是完全没有被他的经历吸引,我倒是被 “Ai” 两个字母熏得难受。 说个结论,应该是写 “AI” 而不是 “Ai” 。 但是,经常看到这些标题: "一个Ai工具帮你成为职场王者" "Ai精品课程" "教你如何用Ai提升效率" 字母的大小写,暴露的是专业度。 而非Ai。 The Verge - 全文 AI Wired - 全文 AI Nature、Science 期刊 - 全文 AI OpenAI、Google文档 - 全文 AI 没有一家专业媒体或机构会写 "Ai", 不管是输入法的原因,还是由于自己的偏好,请把 “Ai” 这个不伦不类的词改掉。 在公共空间和专业文档中表达"人工智能"时,请写对 "AI" 。
具体做法是,对每对拼合后的子秘钥CnDn,按表PC-2执行变换: PC-2 14 17 11 24 1 5 3 28 15 6 21 7 27 20 13 2 41 52 31 37 47 55 30 40 51 45 33 48 44 49 39 56 34 53 46 42 50 36 29 32 每对子秘钥有56位,但PC 比如,对于第1轮的组合秘钥,我们有: C1D1 = 1110000 1100110 0101010 1011111 1010101 0110011 0011110 0011110 通过PC-2的变换后,
AI绘画个人作品展示 图片 图片 一、使用 GPU 的 AI 技术场景应用与开发实践 图片 GPU 可以大幅提升人工智能算法的运行速度,加快数据的处理和分析,由此产生了许多基于 GPU 的 AI 技术场景应用。 下面我们将分别介绍 AI 绘画、AI 语音合成、开源语言模型部署等 AI 技术场景的 GPU 开发实践。 1.1 AI 绘画 AI 绘画是利用人工智能技术进行绘画创作的一种方法。 1.2 AI 语音合成 AI 语音合成是通过人工智能技术实现的语音合成技术。利用 GPU 可以加速计算,提高语音合成的速度和准确度。近年来,WaveNet 技术成为了语音合成的一种新的解决方案。 1.3 开源语言模型部署 开源语言模型部署是一种将 AI 技术和自然语言处理技术相结合的应用场景。使用 GPU 可以加快模型的训练,提高模型的准确度和效率。
本文将从深度学习的原理开始,进而深入地讨论在实现深度学习的计算过程中使用到的 AI 框架,看看 AI 框架具体的作用和目的。 这种模拟生物神经元的数学计算,能够很好地对大规模独立同分布的数据进行非线性映射和处理,使得其能够应对到 AI 的不同任务。函数逼近现在,如果把神经网络看做一个复杂函数,那么这个函数可以逼近任何函数。 AI 框架的作用AI 框架与微分关系根据深度学习的原理,AI 框架最核心和基础的功能是自动求导(后续统一称为自动微分,AutoGrad)。 AI 框架与程序结合下面左图的公式是神经网络表示的复合函数表示,蓝色框框表示的是 AI 框架,AI 框架给开发者提供构建神经网络模型的数学操作,AI 框架把复杂的数学表达,转换成计算机可识别的计算图。 这一过程,只要你定义好网络 AI 框架都会主动地帮我们完成。