首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏计算机视觉理论及其实现

    torch.manual_seed( )

    if args.seed is not None:  random.seed(args.seed) #  torch.manual_seed(args.seed) #为CPU设置种子用于生成随机数,以使得结果是确定的    torch.cuda.manual_seed(args.seed) #为当前GPU设置随机种子;   cudnn.deterministic = True#如果使用多个GPU,应该使用torch.cuda.manual_seed_all

    1.2K10编辑于 2022-09-02
  • 来自专栏计算机视觉理论及其实现

    tf.set_random_seed()

    设置图级随机seed。依赖于随机seed的操作实际上从两个seed中获取:图级和操作级seed。 这将设置图级别的seed。 其与操作级seed的相互作用如下:如果没有设置图形级别和操作seed,则使用随机seed进行操作。 如果设置了图级seed,但操作seed没有设置:系统确定性地选择与图级seed一起的操作seed,以便获得唯一的随机序列。 如果没有设置图级seed,但是设置了操作seed:使用默认的图级seed和指定的操作seed来确定随机序列。如果图级和操作seed都被设置:两个seed联合使用以确定随机序列。 :为了使所有op产生的随机序列在会话之间是可重复的,请设置一个图级别的seed:a = tf.random_uniform([1], seed=1)b = tf.random_normal([1])#

    1.1K50编辑于 2022-09-03
  • 来自专栏孙小北的成长笔记

    R语言set.seed()用法

    R语言set.seed()用法 set.seed() 用于设定随机数种子,让产生的随机数能够再次出现 set.seed()用于设定随机数种子,一个特定的种子可以产生一个特定的伪随机序列, 这个函数的主要目的,是让模拟能够可重复出现,因为很多时候我们需要取随机数,但这段代码再跑一次的时候,结果就不一样了,如果需要重复出现同样的随机结果的话,就可以用set.seed()。 set.seed( ) 括号的数只是一个编号,作为标记使用,取值可以随意 当以后需要取得与上次相同的随机数时, set.seed( ) 中填写回上面设置的值即可。 随机数一样 set.seed(1) x<-rnorm(5) #随机生成5个随机数 x #-0.6264538 0.1836433 -0.8356286 1.5952808 0.3295078

    1.1K10编辑于 2024-01-30
  • 来自专栏分享学习

    pytorch中的torch.manual_seed(myseed) 和 torch.cuda.manual_seed(myseed)

    myseed = 45216 使用方法: 为CPU中设置种子,生成随机数 torch.manual_seed(myseed) 为特定GPU设置种子,生成随机数 torch.cuda.manual_seed (myseed) 为所有GPU设置种子,生成随机数 torch.cuda.manual_seed_all(myseed) 解释: 在实验中需要生成随机数据的时候,每次实验都需要生成数据。

    1.2K30发布于 2021-05-10
  • 来自专栏深度强化学习实验室

    Google发布强化学习框架SEED RL

    SEED RL体系结构 SEED RL体系结构旨在解决这些缺点。 SEED RL基于TensorFlow 2 API,在我们的实验中,是通过TPU加速的。 ? ? SEED RL的特点与性能 基于谷歌的TensorFlow 2.0框架,SEED RL的特点是能通过集中模型推理,来利用图形卡和TPU(张量处理单元)。 为了避免数据传输瓶颈,SEED RL还使用学习器组件来集中执行AI推理,而该组件也使用来自分布式推理的输入来训练模型。 克隆仓库 git clone https://github.com/google-research/seed_rl.git cd seed_rl 2. 单机本地机器训练 .

    2K20发布于 2020-04-07
  • 来自专栏FreeBuf

    SEED:缓冲区溢出漏洞实验

    前言:本文是基于美国雪城大学的seed实验所做的缓冲区溢出实验,笔者在进行实验的时候参考了网上已有的部分博客,但是发现存在部分细节没有详细解释,导致实验过程中难以复现上述攻击。

    1.7K21发布于 2019-12-23
  • 实时语音克隆翻译技术Seed LiveInterpret 2.0解析

    Seed LiveInterpret 2.0:端到端同步语音克隆翻译系统同步口译(SI)是翻译行业最具挑战性的领域之一,产品级自动系统长期面临诸多难题:转录和翻译质量欠佳、缺乏实时语音生成、多说话人混淆以及翻译语音膨胀 本研究推出的Seed-LiveInterpret 2.0是一个端到端SI模型,具有以下核心特性:实现高保真、超低延迟的语音到语音生成集成语音克隆功能采用创新的双工语音理解-生成框架实验结果表明,通过大规模预训练和强化学习

    35310编辑于 2025-08-15
  • 来自专栏凯哥Java

    【spring-boot-seed】SpringBoot骨架项目

    spring-boot-seed 项目介绍 SpringBoot的种子框架项目,个人学习使用,集成一些常用的框架功能,方便快速开发。 软件架构 spring-boot-seed   ├── src/main/java/com.dazzlzy   |   ├── common -- 通用代码包   |   |    ├── base - ,master生产主线与develop开发主线 开发环境 JDK8 Mysql5.7 SpringBoot2 Redis https://github.com/dazzlzy/spring-boot-seed

    1.2K20发布于 2019-06-28
  • 来自专栏ascii0x03的安全笔记

    SEED缓冲区溢出实验笔记

    缓冲区溢出实验(Linux 32位) 参考教程与材料:http://www.cis.syr.edu/~wedu/seed/Labs_12.04/Software/Buffer_Overflow/  (本文记录了做 SEED缓冲区溢出实验的体会与问题,侧重实践,而不是讲解缓冲区溢出原理的详细教程) 1. 准备工作 使用SEED ubuntu虚拟机进行缓冲区溢出实验,首先要关闭一些针对此攻击的防御机制来简化实验。

    2.3K51发布于 2018-04-12
  • 来自专栏知识锦囊

    Python学习——Numpy.random.seed()的用法

    函数np.random.seed(n)解释 功能:用于生成指定随机数。 参数:seed(n)中的参数n比喻成“堆”,seed(5)表示第5堆,n的数值基本可以随便设置。 设置的seed(n)仅一次有效。 (也有人比喻seed(n)里的n为一个盛有随机数的“聚宝盆”,一个数字代表一个“聚宝盆”,当我们设置相同的seed()时,“聚宝盆”就是一样的,所以每次取出的随机数就会相同。) 2. 用法 np.random.seed(n)可以按照顺序产生一组固定的数组,如果使用相同的seed()值,则每次生成的随机数都相同;如果不设置这个值,那么每次生成的随机数不同。 注意:需要每次调用的时候都seed()一下,表示种子相同,从而生成的随机数相同。 例1:只调用一次seed(),两次产生的随机数不同。

    2.9K40编辑于 2022-05-12
  • 来自专栏算法与数据之美

    1031 | SEED江苏大数据开发与应用大赛

    2022年第三届江苏省大数据开发与应用大赛(SEED 大赛),由江苏省工业和信息化厅、无锡市人民政府联合举办,以“促数字转型,赋数据应用”为主题,设置医疗卫生、智能制造、能源管理、数字媒体四个赛道。 大赛英文名称SEED,寓意海量的数据如一颗颗沉睡的种子,等待开发培育。 这边给大家带来其中三个赛道(医疗卫生、智能制造、能源管理)的详细介绍。 本届Seed大赛医疗卫生赛道围绕胃癌病理图像,通过参赛者开发的AI算法,辅助判断胃癌图像的T分期指标。

    80710编辑于 2023-03-02
  • 来自专栏ascii0x03的安全笔记

    SEED缓冲区溢出实验笔记——Return_to_libc

    参考:http://www.cis.syr.edu/~wedu/seed/Labs_12.04/Software/Return_to_libc/      http://drops.wooyun.org

    1.2K60发布于 2018-04-12
  • 来自专栏脑机接口

    上海交大情感脑电数据集(SEED)简介

    SJTU 情感脑电数据集(SEED)是由BCMI实验室提供的EEG数据集的集合,该实验室由吕宝粮教授领导 。 数据集官网以及获取地址: http://bcmi.sjtu.edu.cn/~seed SEED数据集介绍 ---- ? SEED数据集包含对象观看电影剪辑时的脑电信号。 3、数据集摘要 SEED数据集包含两个部分: ? 3.1 “ Preprocessed_EEG”文件 包含Matlab中的EEG数据的降采样,预处理和分段版本(.mat文件)。数据下采样到200Hz。

    11.4K21发布于 2020-06-30
  • 来自专栏python前行者

    Numpy.random.seed()和numpy.random.RandomState()用法

    Numpy.random.seed() 设置seed()里的数字就相当于设置了一个盛有随机数的“聚宝盆”,一个数字代表一个“聚宝盆”,当我们在seed()的括号里设置相同的seed,“聚宝盆”就是一样的 ,那当然每次拿出的随机数就会相同(不要觉得就是从里面随机取数字,只要设置的seed相同取出地随机数就一样)。 如果不设置seed,则每次会生成不同的随机数。(注:seed括号里的数值基本可以随便设置哦) 但是有时候你明明设置了seed()没有变,但生成的随机数组还是不同,这是怎么回事呢? 为什么会不一样,我不是已经设置了seed没变么? 我们只需要再输入一遍np.random.seed(0)就好了,请看: np.random.seed(0) np.random.rand(4,3) Out[362]: array([[0.5488135

    5.7K41发布于 2019-03-25
  • 来自专栏SH的全栈笔记

    Go中使用Seed得到重复随机数的问题

    那么唯一有关的就是seed。我们首先得明确seed的用途。 seed的用途 在这里就不卖关子了,先给出结论。 源码解析-seed seed 首先来看一下seed做了什么。 func (rng *rngSource) Seed(seed int64) { rng.tap = 0 rng.feed = rngLen - rngTap seed = seed % int32max if seed < 0 { // 如果是负数,则强行转换为一个int32的整数 seed += int32max } if seed == 0 { // 如果seed没有被赋值,则默认给一个值 同时,seed的值会最终决定x的值,只要seed相同,则得到的x就相同。而且无论seed是否被赋值,只要检测到是零值,都会默认的赋值为89482311。 接下来我们再看seedrand。

    2.4K20发布于 2019-10-20
  • 来自专栏Sentieon:文献解读

    文献解读-Beta-amylase and phosphatidic acid involved in recalcitrant seed germinatio

    关键词:农业;基因测序;变异检测; 文献简介 标题(英文):Beta-amylase and phosphatidic acid involved in recalcitrant seed germination

    23310编辑于 2024-09-03
  • 来自专栏NLP/KG

    python编程中,各种随机种子seed设置总结

    tensorflow as tf import torch import time 下面先展示python内置random函数、numpy中的random函数、tensorflow及pytorch中常见的seed 使用方式(注:pytorch仅以CPU为例): seed = 1 random.seed(seed) np.random.seed(seed) tf.random.set_seed(seed) torch.manual_seed (seed) list = [1,2,3,4,5,6,7,8,9] a = random.sample(list,5) b = np.random.randn(5) c = tf.random.normal

    1.2K20编辑于 2022-12-21
  • 来自专栏DrugOne

    字节Seed团队冷冻电镜基座模型新突破

    CryoFM:用生成式模型,真正“帮实验数据说话” 近日,字节跳动 Seed 团队提出了 cryoFM ——一个直接在冷冻电镜密度图空间中训练的生成式基础模型。 论文(bioRxiv): https://www.biorxiv.org/content/10.64898/2025.12.29.696802v1 项目主页: https://bytedance-seed.github.io /cryofm/blog/cryofm2/ 模型与代码: https://huggingface.co/ByteDance-Seed/cryofm-v2 https://github.com/ByteDance-Seed

    14710编辑于 2026-01-26
  • 来自专栏机器之心

    人民大学&字节Seed:利用μP实现Diffusion Transformers高效扩展

    本文由中国人民大学高瓴人工智能学院李崇轩团队和字节跳动Seed团队共同完成。 第一作者郑晨宇是中国人民大学高瓴人工智能学院二年级博士生,主要研究方向为基础模型的优化、泛化和可扩展性理论,导师为李崇轩副教授,论文为其在字节跳动Seed实习期间完成。 为此,人大高瓴李崇轩团队和字节跳动Seed团队的研究员引入了大语言模型训练中的μP理论,并将其扩展到diffusion Transformers的训练中。

    20800编辑于 2025-06-28
  • 来自专栏AI深度学习求索

    弱监督语义分割论文SEC详解(2016-ECCV):Seed, Expand and Constrain

    其中, seed: 即seed cues,一般使用CAM[1]方法对分割物体进行定位,首先找到物体的位置,要求定位准确,一般找到的位置十分小,不能直接当监督信息,需要根据seed对区域进行扩张 Expand :即在seed的基础上扩张seed cues区域,使被标记为object label的像素越来越多,可视化出来的物体区域越来越大,如果只有seed 和expand,那随着网络的训练,masks区域会不断增大 生成前景类的cues; 背景seed cues: 使用显著性检验方法,选择阈值为10%得到背景类的cues,将不同类堆叠在同一个map中则生成seed cues; 优点:定位准确 缺点:seed cues 2、Expansion Loss : 由CAM方法生成的初始Seed cues虽然准确但是小而稀疏,不能直接作为分割mask,作者设计expand分支网络,在seed cues的基础上,扩张分割区域,即扩张确定 3,constrain loss 如果仅仅有seed loss 定位,expand loss 扩展seed 区域,而不加以限制的话,分割网络预测的分割图很容易便会超出物体实际的边界,造成较低的性能。

    2.9K10发布于 2018-12-11
领券