首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏图形学与OpenGL

    实验4 类初步

    一.实验目的与要求: 掌握声明类的方法,类和类的成员的概念以及定义对象的方法。 掌握类的构造函数和析构函数的概念和使用方法。 初步掌握用类和对象编制基于对象的程序。 二.实验过程: 完成程序设计实习之类和对象作业1,见:http://cxsjsx.openjudge.cn/hw201702/。 注:本次实验有可能会安排在校内http://acm.hpu.edu.cn/contest.php进行。

    39220发布于 2018-10-09
  • 来自专栏张国平_玩转树莓派

    树莓派基础实验4:继电器实验

    二、组件 ★Raspberry Pi 3主板*1 ★树莓派电源*1 ★40P软排线*1 ★继电器模块*1 ★双色LED模块*1 ★面包板*1 ★跳线若干 三、实验原理 ? 继电器 ? 4.触点:有两个触点:   常开——当继电器被激活时连接,当它不活动时断开。   常闭——继电器激活时未连接,未激活时连接。   5.模制外壳:继电器覆盖有塑料壳,能用来保护。 继电器工作原理   所以在这个实验中,将SIG连接到Raspberry Pi,发送一个高电平给SIG,晶体管通电,并且继电器的线圈通电,因此,继电器的常开触点闭合,继电器的常闭触点将脱离公共端口。 四、实验步骤   第1步:连接电路。

    3.6K50发布于 2020-09-28
  • 来自专栏图形学与OpenGL

    实验4 编码裁剪算法

    1.实验目的: 了解二维图形裁剪的原理(点的裁剪、直线的裁剪、多边形的裁剪); 利用VC+OpenGL实现直线的裁剪算法。 2.实验内容: (1) 理解直线裁剪的原理(Cohen-Surtherland算法、梁友栋算法)。 (2) 利用VC+OpenGL实现直线的编码裁剪算法,在屏幕上用一个封闭矩形裁剪任意一条直线。 (4) 尝试实现梁友栋裁剪算法。 3.实验原理: 在编码裁剪算法中,为了快速判断一条直线段与矩形窗口的位置关系,采用了如图A.4所示的空间划分和编码方案。 图A.4裁剪编码 4实验代码: #include <GL/glut.h> #include <stdio.h> #include <stdlib.h> #define LEFT_EDGE 1 请分别给出直线的三种不同位置情况,测试实验代码是否存在问题,如果有请调试改正,并尝试实现梁友栋裁剪算法。

    1.4K20发布于 2020-10-27
  • 来自专栏图形学与OpenGL

    实验4 编码裁剪算法

    1.实验目的: 了解二维图形裁剪的原理(点的裁剪、直线的裁剪、多边形的裁剪),利用VC+OpenGL实现直线的裁剪算法。 2.实验内容: (1) 理解直线裁剪的原理(Cohen-Surtherland算法、梁友栋算法) (2) 利用VC+OpenGL实现直线的编码裁剪算法,在屏幕上用一个封闭矩形裁剪任意一条直线。 (4) 尝试实现梁友栋裁剪算法。 3.实验原理: 编码裁剪算法中,为了快速判断一条直线段与矩形窗口的位置关系,采用了如图A.4所示的空间划分和编码方案。 ? 4实验代码: #include <GL/glut.h> #include <stdio.h> #include <stdlib.h> #define LEFT_EDGE 1 #define RIGHT_EDGE 请分别给出直线的三种不同位置情况,测试实验代码是否存在问题,有的话请调试改正。

    1.1K10发布于 2018-10-09
  • 来自专栏转染

    LONZA 4D核转技术--查找适合自己实验的程序

    LONZA 4D核转技术相对而言更适用于原代悬浮细胞。Nucleofector®技术是一种改进的电穿孔方法,能够高效转染原代细胞,干细胞,神经元和细胞系。 :cells (请注意其platform的信息,具体是否为4D,比如DC细胞这个平台即为Ⅰ/Ⅱ/2b,而不是4D,如果需要使用4D,具体还是需要参考4D platform的protocol;如果适用于自己的实验要求 即可参考该实验条件及设备)如果只关注4D,就可以直接在左侧栏目筛选中platform中勾选相应的4D核转技术,详见此链接:cells查看按照自己所需细胞类型(还以DC细胞为例)进行查看,此时platform 即为4D但是目前此处的信息只有mRN和plasmid, 两者的Program是不同的,自己实验时请注意程序的选择,如果还有其他substrate类型(例如siRNA,这里没有siRNA的实验信息用于参考 ),可以寻求技术,或者发邮件确认 应用程序。

    35110编辑于 2024-12-02
  • 来自专栏图形学与OpenGL

    实验4 差异可视化

    实验目的 1. 了解差异可视化知识,了解和学习差异可视化中热点图、星图、平行坐标图等常见图表类型; 2. 学习并掌握R中差异可视化绘制相关函数。 二. 实验内容 1.

    84920发布于 2018-10-09
  • 来自专栏图形学与OpenGL

    机械版CG 实验4 裁剪

    1.实验目的: 了解二维图形裁剪的原理(点的裁剪、直线的裁剪、多边形的裁剪),利用VC+OpenGL实现直线的裁剪算法。 3.实验原理: 编码裁剪算法的主要思想是:对于每条线段,分为三种情况处理。 4实验代码: #include <GL/glut.h> #include <stdio.h> #define LEFT_EDGE   1 //代表0001 #define RIGHT_EDGE 2         //代表0010 #define BOTTOM_EDGE 4       //代表0100 #define TOP_EDGE    8         //代表1000 bool bInput, accept (4)附MFC代码示例:/Files/opengl/LineClip_GDI.rar 5.实验思考题 请分别给出直线的三种不同位置情况,测试实验代码是否存在问题,有的话请调试改正。

    91510发布于 2018-10-09
  • 来自专栏智能大数据分析

    【大数据技术基础 | 实验十】Hive实验:部署Hive

    二、实验要求 完成Hive的内嵌模式部署; 能够将Hive数据存储在HDFS上; 待Hive环境搭建好后,能够启动并执行一般命令。 (4)Hadoop集群执行HiveQL翻译后的MapReduce-APP或HDFS-APP。 由上述执行过程可知,Hive的核心是其运行时环境,该环境能够将类SQL语句编译成MapReduce。 Hive架构与基本组成如图所示: 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 Hive 版本:hive-1.2.1 五、 显示Hive内置函数: show functions; 退出Hive环境: exit; 七、实验心得   通过本次Hive部署实验,我深刻理解了Hive在Hadoop大数据生态圈中的重要地位和作用。 此外,我还学会了使用Hive的基本命令,如查看表格和函数等,这些命令为我在后续的实验和学习中提供了有力的支持。   

    1K10编辑于 2025-01-22
  • 来自专栏智能大数据分析

    【大数据技术基础 | 实验五】ZooKeeper实验:部署ZooKeeper

    四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 ZooKeeper 版本:zookeeper-3.4.6 五、实验步骤 本实验主要介绍 环境变量 最后,重启虚拟机并检查jdk环境是否配置成功 (二)修改ZooKeeper配置文件 首先配置master,slave1,slave2之间的免密和各个机器的/etc/hosts文件,可参考:【大数据技术基础 七、实验心得   在本次ZooKeeper部署实验中,通过搭建包含三个节点的ZooKeeper集群,进一步理解了ZooKeeper在分布式系统中的角色和功能。    首先,实验过程涵盖了JDK的安装、ZooKeeper配置文件的修改、节点间的免密设置等步骤。 实验结果显示各节点正常启动了ZooKeeper进程,并正确识别了Leader和Follower节点。

    62100编辑于 2025-01-22
  • 来自专栏智能大数据分析

    【大数据技术基础 | 实验十五】Storm实验:部署Storm

    二、实验要求 巩固之前的实验; 部署三个节点的Storm集群,以master节点作为主节点,其他两个slave节点作为从节点,并修改Storm Web的端口为8081,并引用外部Zookeeper。 storm-0.10.0 五、实验内容和步骤 (一)配置SSH免密登录 首先配置master,slave1和slave2之间的免密登录和各虚拟机的/etc/hosts文件,具体步骤参考:【大数据技术基础 | 实验一】配置SSH免密登录 (二)安装ZooKeeper集群 配置完免密登录之后我们还需要安装Zookeeper集群,具体步骤参考:【大数据技术基础 | 实验五】ZooKeeper实验:部署ZooKeeper 默认情况下,每个节点上可运行4个workers,分别在6700、6701、6702和6703端口,如: supervisor.slots.ports: - 6700 - 6701 此外,本次实验也让我更加深刻地认识到了团队合作的重要性。在实验过程中,我与同学们相互讨论、互相帮助,共同解决了许多难题。这种团队协作的精神不仅提高了我们的实验效率,也让我们在相互学习中不断成长。   

    84200编辑于 2025-01-22
  • 来自专栏智能大数据分析

    【大数据技术基础 | 实验十二】Hive实验:Hive分区

    一、实验目的 掌握Hive分区的用法,加深对Hive分区概念的理解,了解Hive表在HDFS的存储目录结构。 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 Hive 版本:hive-1.2.1 五、实验步骤 这里可以点击一键搭建,部署好实验环境 ,具体详细步骤可参考: 【大数据技术基础 | 实验三】HDFS实验:部署HDFS, 【大数据技术基础 | 实验十】Hive实验:部署Hive。 因为Hive依赖于MapReduce,所以本实验之前先要启动Hadoop集群,然后再启动Hive进行实验,主要包括以下三个步骤。 通过这次实验,我更加坚定了自己学习大数据技术的决心和信心。

    60500编辑于 2025-01-22
  • 来自专栏智能大数据分析

    【大数据技术基础 | 实验七】HBase实验:部署HBase

    二、实验要求 巩固学习下【大数据技术基础 | 实验一】配置SSH免密登录、【大数据技术基础 | 实验三】HDFS实验:部署HDFS、【大数据技术基础 | 实验五】ZooKeeper实验:部署ZooKeeper -3.4.6 HBase 版本:hbase-1.1.2 五、实验内容和步骤 本实验主要演示HBase的安装部署过程,因HBase依赖于HDFS和Zookeeper,所以该实验需要分为四个步骤。 首先,配置SSH无密钥登录(参考【大数据技术基础 | 实验一】配置SSH免密登录)。 其次,安装Hadoop集群(参考【大数据技术基础 | 实验三】HDFS实验:部署HDFS)。 然后,安装Zookeeper集群(参考【大数据技术基础 | 实验五】ZooKeeper实验:部署ZooKeeper)。 (这里的master要替换为对应的IP地址) 七、实验心得   在进行HBase实验的过程中,我深刻体会到了HBase作为一个分布式、可扩展的NoSQL数据库的独特优势。

    77800编辑于 2025-01-22
  • 来自专栏智能大数据分析

    【大数据技术基础 | 实验三】HDFS实验:部署HDFS

    二、实验要求 要求实验结束时,已构建出以下HDFS集群: master上部署主服务NameNode; slave1、2上部署从服务DataNode; master上部署HDFS客户端。 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 五、实验内容和步骤 部署HDFS主要步骤如下: 配置Hadoop 详细配置步骤参考:【大数据技术基础 | 实验一】配置SSH免密登录 (三)修改HDFS配置文件 1. 七、实验心得   在进行HDFS部署实验后,我收获了许多宝贵的经验。通过实验,首先加深了对HDFS体系结构和分布式文件系统的理解。 总之,这次实验不仅让我加深了对HDFS原理的理解,还让我掌握了如何部署和操作HDFS系统,为将来处理大规模数据奠定了基础。

    1K00编辑于 2025-01-22
  • 来自专栏图形学与OpenGL

    实验4 二维几何变换

    2.实验内容: 根据示范代码1,使用OpenGL平移、旋转、缩放变换函数来改写代码实现所要求的功能。示范代码1的代码运行结果为图1。 (20分钟); (2) 使用glRotatef()函数,实现图形旋转,并结合glRotatef()函数的不同参数输入,实现x,y和z方向的旋转,将测试结果存为图4-6,与对应修改的旋转函数代码一起保存至 word实验文档中(20分钟); (4)示范代码2,代码运行结果为图2,请参考它绘制如图3所示的图形,将绘图结果与代码保存至word实验文档中(30分钟); (5) 整理word实验文档,将其命名为“序号 -姓名-Prj4.doc”,电子版提交至雨课堂,A4打印稿下一次课前或实验课前提交。 设置的方法是以GL_MODELVIEW为参数调用glMatrixMode函数,例如: glMatrixMode(GL_MODELVIEW); 该语句指定一个4×4的建模矩阵作为当前矩阵。

    1.4K20发布于 2019-02-25
  • 来自专栏大魏分享(微信公众号:david-share)

    红帽技术干货速递系列之1:RHV4实验环境快速部署指南

    大卫说: 本文是大卫同事马林根据实验完成的RHV4.0 step by step的安装步骤。这对于我们在PoC环境中部署RHV有很大的帮助。大卫也欢迎读者朋友们一起进行RHV的相关技术讨论。 前言 本实验手册目标是为快速搭建一个基于自承载引擎的RHV4.0实验环境,或作为搭建PoC基本测试环境的初始框架参考,而不适用于生产环境。 实验环境需求 为了简化实验的复杂度。本实验环境基于嵌套的虚拟化环境搭建为例,同时也适用于物理环境。部署需要以下配置: NFS 文件服务器,空间建议40GB以上。 NTP 时间同步。 作为RHV4的新特性,下面展示一些Cockpit的管理界面。 ? ? ? ? ? ? ? ? ? 使用Web方式部署RHVM 选择Virtualization->HostedEngine Tab。 所以输入/tmp/rhevm-4.xxxxxxx.x86_64.rhevm.ova即可 ? 输入可以在DNS服务器中可解析的RHV-M的全域名。 ? ? 设置RHV-M虚拟机root口令。 ?

    2.6K40发布于 2018-03-22
  • 来自专栏小樱的经验随笔

    ucoreOS_lab4 实验报告

    lab4 会依赖 lab1、lab2 和 lab3,我们需要把做的 lab1、lab2 和 lab3 的代码填到 lab4 中缺失的位置上面。 和 lab3 操作流程一样,我们只需要将已经完成的 lab1、lab2 和 lab3 与待完成的 lab4 (由于 lab4 是基于 lab1、lab2、lab3 基础上完成的,所以这里只需要导入 lab3 (4) 初始化第一个页表 boot_pgdir。 (5) 初始化 GDT,即全局描述符表。 2、pic_init() 初始化 8259A 中断控制器 3、idt_init() 初始化 IDT,即中断描述符表 4、vmm_init() 主要就是实验了一个 do_pgfault() 函数达到页错误异常处理功能 4.

    1.6K30发布于 2019-08-05
  • 来自专栏智能大数据分析

    【大数据技术基础 | 实验十四】Kafka实验:订阅推送示例

    三、实验原理 (一)Kafka简介 Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 ZooKeeper 版本:zookeeper-3.4.6 Kafka 版本: :【大数据技术基础 | 实验一】配置SSH免密登录 (二)安装ZooKeeper集群 配置完免密登录之后我们还需要安装Zookeeper集群,具体步骤参考:【大数据技术基础 | 实验五】ZooKeeper   通过本次Kafka实验,我深入理解了分布式消息队列的核心概念及其实现方式。 总之,本次实验帮助我从理论走向实践,不仅熟悉了Kafka的基本操作,还加深了对其内部工作原理的理解。

    59400编辑于 2025-01-22
  • 来自专栏智能大数据分析

    【大数据技术基础 | 实验八】HBase实验:新建HBase表

    四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 ZooKeeper 版本:zookeeper-3.4.6 HBase 版本: 详细步骤参考:【大数据技术基础 | 实验七】HBase实验:部署HBase。 cd /usr/cstor/hbase/bin . jar htrace-core-3.1.0-incubating.jar httpclient-4.4.jar httpcore-4.4.jar libfb303-0.9.2.jar log4j -1.2.17.jar metrics-core-2.2.0.jar netty-all-4.0.23.Final.jar protobuf-java-2.5.0.jar slf4j-api-1.7.7 .jar slf4j-log4j12-1.6.4.jar zookeeper-3.4.6.jar 找到虚拟机内的HBase安装包的lib目录/usr/cstor/hbase/lib,然后将lib下的这些

    1K00编辑于 2025-01-22
  • 来自专栏智能大数据分析

    【大数据技术基础 | 实验六】ZooKeeper实验:ZooKeeper进程协作

    四、实验环境 云创大数据实验平台: Java 版本:jdk1.7.0_79 Hadoop 版本:hadoop-2.7.1 ZooKeeper 版本:zookeeper-3.4.6 五、实验步骤 本实验主要完成多线程通过 ZooKeeper完成彼此间的协作问题,实验过程包含启动集群、编写代码、客户端提交代码三个步骤。 具体步骤可以参考:【大数据技术基础 | 实验五】ZooKeeper实验:部署ZooKeeper。 从ZooKeeper安装包的lib目录下,将如下jar包导入到开发工具: jline-0.9.94.jar log4j-1.2.16.jar netty-3.7.0.Final.jar slf4j-api -1.6.1.jar slf4j-log4j12-1.6.1.jar zookeeper-3.4.6.jar 找到虚拟机内的ZooKeeper安装包的lib目录/usr/cstor/zookeeper

    24800编辑于 2025-01-22
  • 来自专栏智能大数据分析

    【大数据技术基础 | 实验四】HDFS实验:读写HDFS文件

    二、实验要求 实验结束时,每位学生均已搭建HDFS开发环境;编写了HDFS写、读代码;在master机上执行了该写、读程序。通过实验了解HDFS读写文件的调用流程,理解HDFS读写文件的原理。 x86_64 五、实验内容和步骤 该实验的前提是部署HDFS,具体步骤可参考:【大数据技术基础 | 实验三】HDFS实验:部署HDFS 这里采用一键搭建的方式,将HDFS部署完成并启动Hadoop集群( hdpAction1.jar WriteFile 查看是否已生成weather.txt文件,若已生成,则查看文件内容是否正确: hadoop fs -ls / hadoop fs -cat /weather.txt 4. 4. HDFS读程序运行结果: 七、实验心得   在本次HDFS实验中,我成功地完成了HDFS文件的读写操作,并对Hadoop分布式文件系统的工作原理有了更深入的理解。

    65000编辑于 2025-01-22
领券