task 1 # Task 生成两个不同的文件,但是这两个文件具有相同的md5哈希值。也就是最简单的哈希碰撞。 md5collgen的原理如下图所示。 尽管MD5是一种广泛使用的哈希算法,但它并不是完全抗碰撞的。MD5生成的哈希值是128位(16字节)长,相对较短。 使用md5collgen生成两个md5相同的文件out1和out2。 然后使用md5collgen命令以prefix为前缀进行md5碰撞,生成两个内容不同但是md5值相同的prefix1和prefix2。使用bless查看prefix1,发现填充了128个字节。 利用md5sum命令计算prefix1和prefix2的md5值,发现md5值相同。 综上,生成了两个哈希值相同但是执行结果不同的可执行文件。sh脚本文件如下。 #!
二、组件 ★Raspberry Pi 3主板*1 ★树莓派电源*1 ★40P软排线*1 ★激光传感器模块*1 ★面包板*1 ★跳线若干 三、实验原理 ? laser传感器 ? laserer传感器原理图 四、实验步骤 第1步:连接电路。这里激光模块的实物与模块原理图的端口名称不一致,我们按照实物的端口名称来连接。 另外一种端口情况的激光模块 VCC端口接5V,SIG端口接GPIO 17,这样GPIO 17信号端是低电平时led on,GPIO 17是高电平时led off,与前面的情况相反。
一.实验目的与要求: 了解运算符重载的概念和使用方法。 掌握几种常用的运算符重载的方法。 二.实验过程: 完成程运算符重载中A-D四道题,见:http://acm.hpu.edu.cn/contest.php?cid=1017,将答题过程简单记录到实验过程中。 将答题结果写到实验结果中,并根据答题结果进行分析、反思,将其写到实验分析中,并写上实验时间。 请按以上要求认真填写实验报告。
1.实验目的: 理解掌握OpenGL程序的模型视图变换。 2.实验内容: (1)阅读实验原理,运行示范实验代码,理解掌握OpenGL程序的模型视图变换; (2)根据示范代码,尝试完成实验作业; 3.实验原理: 我们生活在一个三维的世界——如果要观察一个物体,我们可以 (1)视图变换函数gluLookAt(0.0,0.0,5.0,0.0,0.0,0.0,0.0,1.0,0.0,)设置照相机的位置 把照相机放在(0,0,5),镜头瞄准(0,0,0),朝上向量定为(0,1 % 360; glutPostRedisplay(); break; case 'Y': year = (year - 5) % 360; glutPostRedisplay(); break; case 5. 实验作业: (1)尝试在太阳系中增加一颗卫星,一颗行星。提示:使用glPushMatrix()和glPopMatrix()在适当的时候保存和恢复坐标系统的位置。
二、实验要求 完成Hive的内嵌模式部署; 能够将Hive数据存储在HDFS上; 待Hive环境搭建好后,能够启动并执行一般命令。 Hive架构与基本组成如图所示: 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 Hive 版本:hive-1.2.1 五、 显示Hive内置函数: show functions; 退出Hive环境: exit; 七、实验心得 通过本次Hive部署实验,我深刻理解了Hive在Hadoop大数据生态圈中的重要地位和作用。 在实验过程中,我学习了Hive的内嵌模式部署方法,掌握了如何将Hive数据存储在HDFS上,并成功启动了Hive环境。 此外,我还学会了使用Hive的基本命令,如查看表格和函数等,这些命令为我在后续的实验和学习中提供了有力的支持。
四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 ZooKeeper 版本:zookeeper-3.4.6 五、实验步骤 本实验主要介绍 环境变量 最后,重启虚拟机并检查jdk环境是否配置成功 (二)修改ZooKeeper配置文件 首先配置master,slave1,slave2之间的免密和各个机器的/etc/hosts文件,可参考:【大数据技术基础 number of ticks that can pass between # sending a request and getting an acknowledgement syncLimit=5 七、实验心得 在本次ZooKeeper部署实验中,通过搭建包含三个节点的ZooKeeper集群,进一步理解了ZooKeeper在分布式系统中的角色和功能。 首先,实验过程涵盖了JDK的安装、ZooKeeper配置文件的修改、节点间的免密设置等步骤。
二、实验要求 巩固之前的实验; 部署三个节点的Storm集群,以master节点作为主节点,其他两个slave节点作为从节点,并修改Storm Web的端口为8081,并引用外部Zookeeper。 storm-0.10.0 五、实验内容和步骤 (一)配置SSH免密登录 首先配置master,slave1和slave2之间的免密登录和各虚拟机的/etc/hosts文件,具体步骤参考:【大数据技术基础 | 实验一】配置SSH免密登录 (二)安装ZooKeeper集群 配置完免密登录之后我们还需要安装Zookeeper集群,具体步骤参考:【大数据技术基础 | 实验五】ZooKeeper实验:部署ZooKeeper 此外,本次实验也让我更加深刻地认识到了团队合作的重要性。在实验过程中,我与同学们相互讨论、互相帮助,共同解决了许多难题。这种团队协作的精神不仅提高了我们的实验效率,也让我们在相互学习中不断成长。 附:以上文中的数据文件及相关资源下载地址: 链接:https://pan.quark.cn/s/d5c21a60475b 提取码:yaEt
一、实验目的 掌握Hive分区的用法,加深对Hive分区概念的理解,了解Hive表在HDFS的存储目录结构。 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 Hive 版本:hive-1.2.1 五、实验步骤 这里可以点击一键搭建,部署好实验环境 ,具体详细步骤可参考: 【大数据技术基础 | 实验三】HDFS实验:部署HDFS, 【大数据技术基础 | 实验十】Hive实验:部署Hive。 因为Hive依赖于MapReduce,所以本实验之前先要启动Hadoop集群,然后再启动Hive进行实验,主要包括以下三个步骤。 通过这次实验,我更加坚定了自己学习大数据技术的决心和信心。
二、实验要求 巩固学习下【大数据技术基础 | 实验一】配置SSH免密登录、【大数据技术基础 | 实验三】HDFS实验:部署HDFS、【大数据技术基础 | 实验五】ZooKeeper实验:部署ZooKeeper -3.4.6 HBase 版本:hbase-1.1.2 五、实验内容和步骤 本实验主要演示HBase的安装部署过程,因HBase依赖于HDFS和Zookeeper,所以该实验需要分为四个步骤。 首先,配置SSH无密钥登录(参考【大数据技术基础 | 实验一】配置SSH免密登录)。 其次,安装Hadoop集群(参考【大数据技术基础 | 实验三】HDFS实验:部署HDFS)。 然后,安装Zookeeper集群(参考【大数据技术基础 | 实验五】ZooKeeper实验:部署ZooKeeper)。 (这里的master要替换为对应的IP地址) 七、实验心得 在进行HBase实验的过程中,我深刻体会到了HBase作为一个分布式、可扩展的NoSQL数据库的独特优势。
二、实验要求 要求实验结束时,已构建出以下HDFS集群: master上部署主服务NameNode; slave1、2上部署从服务DataNode; master上部署HDFS客户端。 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 五、实验内容和步骤 部署HDFS主要步骤如下: 配置Hadoop 详细配置步骤参考:【大数据技术基础 | 实验一】配置SSH免密登录 (三)修改HDFS配置文件 1. 七、实验心得 在进行HDFS部署实验后,我收获了许多宝贵的经验。通过实验,首先加深了对HDFS体系结构和分布式文件系统的理解。 总之,这次实验不仅让我加深了对HDFS原理的理解,还让我掌握了如何部署和操作HDFS系统,为将来处理大规模数据奠定了基础。
while True: data,addr=s.recvfrom(1024) print('received:',data,'from',addr) s.sendto(data,addr) 5.
三、实验原理 (一)Kafka简介 Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 ZooKeeper 版本:zookeeper-3.4.6 Kafka 版本: :【大数据技术基础 | 实验一】配置SSH免密登录 (二)安装ZooKeeper集群 配置完免密登录之后我们还需要安装Zookeeper集群,具体步骤参考:【大数据技术基础 | 实验五】ZooKeeper 通过本次Kafka实验,我深入理解了分布式消息队列的核心概念及其实现方式。 总之,本次实验帮助我从理论走向实践,不仅熟悉了Kafka的基本操作,还加深了对其内部工作原理的理解。
三、实验原理 逻辑模型:HBase以表的形式存储数据,每个表由行和列组成,每个列属于一个特定的列族(Column Family)。 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 ZooKeeper 版本:zookeeper-3.4.6 HBase 版本: hbase-1.1.2 五、实验内容和步骤 本实验主要演示HBase Java API的一些基本操作,包括取得链接,创建表,写数据,查询等几个步骤,具体内容如下: (一)启动HBase集群 首先,使用一键搭建启动 详细步骤参考:【大数据技术基础 | 实验七】HBase实验:部署HBase。 cd /usr/cstor/hbase/bin . /hbase shell scan 'mytable' 七、实验心得 在本次实验中,我通过Java代码实现了与HBase数据库的连接,并进行了创建表、插入数据和查询数据的操作。
三、实验原理 通过ZooKeeper实现不同物理机器上的进程间通信。 场景使用:客户端A需要向客户端B发送一条消息msg1。 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 ZooKeeper 版本:zookeeper-3.4.6 五、实验步骤 本实验主要完成多线程通过 ZooKeeper完成彼此间的协作问题,实验过程包含启动集群、编写代码、客户端提交代码三个步骤。 具体步骤可以参考:【大数据技术基础 | 实验五】ZooKeeper实验:部署ZooKeeper。 实验的目标是掌握如何利用Java代码与ZooKeeper集群进行连接,并通过ZooKeeper来实现不同线程间的协作。
二、实验要求 实验结束时,每位学生均已搭建HDFS开发环境;编写了HDFS写、读代码;在master机上执行了该写、读程序。通过实验了解HDFS读写文件的调用流程,理解HDFS读写文件的原理。 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 Eclipse 版本:eclipse-jee-luna-SR2-win32- x86_64 五、实验内容和步骤 该实验的前提是部署HDFS,具体步骤可参考:【大数据技术基础 | 实验三】HDFS实验:部署HDFS 这里采用一键搭建的方式,将HDFS部署完成并启动Hadoop集群( System.out.println("myfile: " + inputStream.readUTF()); inputStream.close(); } } 5. HDFS读程序运行结果: 七、实验心得 在本次HDFS实验中,我成功地完成了HDFS文件的读写操作,并对Hadoop分布式文件系统的工作原理有了更深入的理解。
books_and_notes/professional_courses/operating_system/sources/ucore_os_lab/docs/lab_report/ 练习0:填写已有实验 lab5 会依赖 lab1~lab4 ,我们需要把做的 lab1~lab4 的代码填到 lab5 中缺失的位置上面。 和 lab4 操作流程一样,我们只需要将已经完成的 lab1~lab4 与待完成的 lab5 (由于 lab5 是基于 lab1~lab4 基础上完成的,所以这里只需要导入 lab4 )分别导入进来,然后点击 * * */ 请在实验报告中描述当创建一个用户态进程并加载了应用程序后,CPU 是如何让这个应用程序最终在用户态执行起来的。 最终的实验结果如下图所示: ? 如果 make grade 无法满分,尝试注释掉 tools/grade.sh 的 221 行到 233 行(在前面加上“#”)。
CG实验指导九 Bezier曲线 1.实验目的: 了解曲线的生成原理,掌握几种常见的曲线生成算法,利用VC+OpenGL实现Bezier曲线生成算法。 2.实验内容: (1) 结合示范代码了解曲线生成原理与算法实现,尤其是Bezier曲线; (2) 调试、编译、修改示范程序。 (3) 尝试实现B样条曲线算法。 3.实验原理: Bezier曲线是通过一组多边形折线的顶点来定义的。如果折线的顶点固定不变,则由其定义的Bezier曲线是唯一的。 4.实验代码: #include <GL/glut.h> #include <stdio.h> #include <stdlib.h> #include <vector> using namespace
1.实验目的和要求 目的:了解简单光照明模型的基本原理,掌握简单光照明模型的计算方法; 要求:读懂WebGL光照示范代码,实现简单物体的光照效果。 2. 实验过程 (1) 示范代码为立方体在一束平行光照射下的漫反射光照效果。 3.实验结果 仅有漫反射光的光照效果如下图所示: ? 添加环境反射光后的立方体效果如下图所示: ? 添加环境反射光与镜面反射光后的立方体效果如下图所示: ? 本次实验中,光线为平行光,光线方向为单位向量L(-0.5, 1, 1),视点在点(0.0, 0.0, 5.0)处,视线方向V需要逐点计算。 5.实验代码 gl-matrix.js 下载地址:http://oty0nwcbq.bkt.clouddn.com/gl-matrix.js (1) 仅有漫反射光的立方体效果 (i) LightedCube-Parallel.html
二、实验要求 要求实验结束时; 每位学生均能够完成Hive的DDL操作; 能够在Hive中新建,显示,修改和删除表等功能。 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 Hive 版本:hive-1.2.1 五、实验内容和步骤 点击一键搭建,将实验环境搭建完成 具体部署Hive详细步骤参考:【大数据技术基础 | 实验十】Hive实验:部署Hive (一)启动Hive 我们在master虚拟机上首先进入hive的bin目录下,然后执行hive命令即可启动: cd 实验结果见实验步骤每步的运行结果。 七、实验心得 通过本次Hive的DDL操作实验,我深刻体验到了Hive在大数据处理中的灵活性和强大功能。
二、实验要求 搭建YARN集群,并使用YARN集群提交简单的任务。观察任务提交的之后的YARN的执行过程。 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 五、实验内容和步骤 (一)配置各服务器之间的免密登录 首先配置 master,slave1和slave2之间的免密登录和各虚拟机的/etc/hosts文件,详细配置步骤参考:【大数据技术基础 | 实验一】配置SSH免密登录 (二)配置HDFS并启动 首先,实验环境中的 java路径没有配置,所以不能直接启动HDFS,需要重新配置,详细步骤参考:【大数据技术基础 | 实验三】HDFS实验:部署HDFS 若启动成功,在master上会看到类似的如下信息: 而在slave1 七、实验心得 本次YARN框架实验让我对YARN作为Hadoop生态中的资源管理器有了更深入的理解。