首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏生信技能树

    使用MuSE软件找somatic mutation

    首先下载安装MuSE mkdir -p $HOME/biosoft/MuSE cd $HOME/biosoft/MuSE wget http://bioinformatics.mdanderson.org /Software/MuSE/MuSEv1.0rc_submission_b391201 mv MuSEv1.0rc_submission_b391201 muse chmod 777 muse $HOME 针对N-T配对的bam文件运行MuSE 首先是在单个病人的N-T配对的bam文件测试MuSE软件的用法,这里有两个命令需要衔接一下,首先是muse call然后是muse sump ,需要参考基因组以及 /muse call -O $sample -f $ref $tumor_bam $normal_bam $HOME/biosoft/MuSE/muse sump -I $sample.MuSE.txt $HOME/biosoft/MuSE/muse sump -I $sample.MuSE.txt -E -O$sample.vcf -D $dbsnp fi fi i=$((i+1))

    1.6K61发布于 2020-10-26
  • 来自专栏HaHack

    脑机接口概述及Muse头环Python开发基础

    阅读原文:http://www.hahack.com/codes/bci-and-muse-headband-development/

    2K11发布于 2020-02-11
  • 从脑波冥想到全球专利:InteraXon Muse 的知识产权护城河之路

    一、Muse 是什么?Muse 是一款配备多通道 EEG(脑电图)传感器的智能头环,能实时读取用户的脑电波,并通过耳机反馈声音,辅助用户进行专注训练、冥想或放松。 二、知识产权:Muse 成功的底层逻辑InteraXon 并不仅仅是一家科技公司,它是一家 高度重视知识产权的科技公司。 多层次 IP 防护战略Muse 的知识产权组合包括: 技术专利:覆盖 EEG 传感器、信号处理、个性化反馈机制等核心算法; 商标:Muse 品牌在北美与欧洲均有注册; 商业机密:算法模型与云端处理逻辑不公开但具有关键价值 知识产权促进合作与商业化InteraXon 还通过技术授权的方式,将 Muse 平台开放给第三方公司和研究者,形成二次营收来源。 例如与 Myndlift 的合作就表明 Muse EEG 技术在远程神经反馈(NFT)治疗中的有效性。

    44810编辑于 2025-07-01
  • 来自专栏脑机接口

    使用CNN-LSTM混合深度学习分类基于MUSE采集的运动想象EEG信号

    Muse electrodes position 该设备由加拿大的InteraXon开发,目前该公司在脑电采集、情绪控制等领域非常火热,甚至谷歌都有将它收购的计划。 这款叫做Muse的脑电设备目前在IndieGoGo上进行预售式众筹,零售价只要200美元,可以说是相当亲民了。 Muse是希腊神话中执掌诗歌、音乐和文学艺术的女神,InteraXon将他们的产品如此命名,应该是寄托了艺术与科技融合,科技产品也可以做出艺术之美的愿景。因此它的表现非常值得我们期待。 ? 一般EEG设备都有专门的EOG电极采集眼电以用于后续的伪迹剔除,而对于如此精简的设备,它使用眼睛附近的AF7和AF8电极来记录眼电,真的是将每个电极都用到了极致,不愧是Muse。 不知道Muse女神和人工智能算法在未来还可以碰撞出多少火花,让我们一起期待吧~ 论文详情: ACNN-LSTM Deep Learning Classifier for Motor Imagery EEG

    1.9K30发布于 2020-11-11
  • 来自专栏FreeBuf

    Pentest Muse:一款专为网络安全人员设计的AI助手

    简而言之,我们只需要把想做的事情告诉Pentest Muse,它就能够帮助我们完成想要的安全测试与评估任务。 Pentest Muse Web应用程序 除了命令行接口之外,该工具还提供了Web应用程序版本,广大研究人员可以直接点击【https://www.pentestmuse.ai/】访问Pentest Muse 在代理模式下,Pentest Muse能够帮助我们完成一系列简单的任务,例如「帮我们在url为xxx的目标上执行SQL注入测试」。 /signup上注册后,我们就可以使用Pentest Muse来管理API了,创建一个账号,打开Pentest Muse的命令行接口,程序将会提示我们进行登录。 项目地址 Pentest Muse: https://github.com/AbstractEngine/pentest-muse-cli https://www.pentestmuse.ai/

    56411编辑于 2024-06-25
  • 探索脑机接口新境界:InteraXon Muse S 头带体验与开发指南

    什么是InteraXon Muse S?InteraXon Muse S是一款轻便、无线的脑电监测头带,专为冥想追踪、睡眠监测和神经反馈训练而设计。 相比前代产品,Muse S在舒适度和数据精度方面都有显著提升。 连接设备并获取数据python复制import muselsl# 查找并连接Muse设备muses = muselsl.list_muses()if muses: muse = muses[0] InteraXon Muse S为脑机接口技术的普及提供了重要平台。 随着开发社区的不断壮大和相关资源的丰富,基于Muse S的创新应用必将层出不穷。

    67610编辑于 2025-09-01
  • InteraXon Muse:从脑电冥想到VR脑机接口的技术演进与应用前景

    由加拿大公司 InteraXon 开发的 Muse 系列产品,正是这一趋势中的代表。 二、Muse 脑电头环的核心技术Muse 是一款轻量级、便携式的 EEG 头环,内置 7 个高精度干电极,可实时采集用户脑电活动,并通过蓝牙将数据传输至移动端应用。 3.1 Muse VR 插件简介Muse VR 是一种专为 HTC Vive 与 Samsung Gear VR 设计的 EEG 扩展配件。 其 Muse 产品与 SDK 已在 NASA、哈佛大学、梅奥诊所等全球百余家科研机构部署。同时,Muse VR 项目体现了 EEG 与 XR 技术融合的广阔前景,有望推动神经科学从实验走向日常应用。 五、总结Muse 系列产品展示了消费级 EEG 设备在冥想、医疗与娱乐领域的巨大潜力。特别是其 Muse VR 项目,通过将脑机接口嵌入虚拟现实,为“沉浸式神经交互”铺平了道路。

    79900编辑于 2025-07-01
  • 来自专栏机器之心

    推理速度比Stable Diffusion快2倍,生成、修复图像谷歌一个模型搞定,实现新SOTA

    Muse 模型是建立在 Transformer (Vaswani et al., 2017) 架构之上。 ., 2022) 相比,Muse 由于使用了离散 token,效率显著提升。与 SOTA 自回归模型 Parti (Yu et al., 2022) 相比,Muse 因使用并行解码而效率更高。 下面我们看看 Muse 生成效果: 文本 - 图像生成:Muse 模型从文本提示快速生成高质量的图像(在 TPUv4 上,对于 512x512 分辨率的图像需要时间为 1.3 秒,生成 256x256 Muse 还提供了基于掩码的编辑,例如「在美丽的秋叶映照下,有一座凉亭在湖上」。 模型简介 Muse 建立在许多组件之上,图 3 提供了模型体系架构概述。 除了以上组件外,Muse 还包含可变掩码比率组件、在推理时迭代并行解码组件等。 实验及结果 如下表所示,与其他模型相比,Muse 缩短了推理时间。

    55310编辑于 2023-03-29
  • 来自专栏爪哇缪斯

    面试题45:介绍一下Redis中hash类型的实现方式是什么?

    127.0.0.1:6379> hset muse name muse (integer) 1 127.0.0.1:6379> hset muse age 20 (integer) 1 127.0.0.1 :6379> hset muse sex male (integer) 1 127.0.0.1:6379> hgetall muse 1) "name" 2) "muse" 3) "age" 4) "20 " 5) "sex" 6) "male" 127.0.0.1:6379> OBJECT encoding muse "ziplist" 据结构如下: ---- 【hashtable】 数据结构如下: (integer) 0 127.0.0.1:6379> OBJECT encoding muse "ziplist" 127.0.0.1:6379> hset muse name 12345678901234567890123456789012345678901234567890123456789012345 (integer) 0 127.0.0.1:6379> OBJECT encoding muse "hashtable"

    38520编辑于 2023-05-09
  • 来自专栏爪哇缪斯

    面试题30:垃圾收集器——并行回收器

    如果CPU数量大于8,并行线程数量为 3+(5*cpu_nums/8) 操作示例: muse@muse:/Users/muse/Desktop> jinfo -flag ParallelGCThreads muse@muse:/Users/muse/Desktop> jinfo -flag MaxGCPauseMillis 11303 -XX muse@muse:/Users/muse/Desktop> jinfo -flag GCTimeRatio 11303 -XX:GCTimeRatio muse@muse:/Users/muse/Desktop> jinfo -flag UseAdaptiveSizePolicy 11303 - muse@muse:/Users/muse/Desktop> jinfo -flag ParallelGCThreads 11303 XX:ParallelGCThreads

    27830编辑于 2023-05-09
  • 来自专栏量子位

    效率碾压DALL·E 2和Imagen,谷歌新模型达成新SOTA,还能一句话搞定PS

    这次,他们的新模型Muse(缪斯)在CC3M数据集上达成了新SOTA(目前最佳水平)。 比DALL·E 2和Imagen更高效 说回谷歌刚刚公开的Muse。 首先,就生成图片的质量来说,Muse的作品大都画质清晰、效果自然。 与DALL·E 2、Imagen等像素空间的扩散模型相比,Muse用的是离散的token,并且采样迭代较少。 另外,和Parti等自回归模型相比,Muse使用了并行解码,效率也更高。 除此之外,为了进一步证实Muse的出图效率,研究者还对比了Muse与其他模型的单张图像生成时间: 在256x256、512x512的分辨率上Muse均达到了最快速度:0.5s和1.3s。 不过值得一提的是,目前Muse还没有正式发布。 有网友调侃,虽然它应该很香,但以谷歌的“尿性”,Muse离正式发布可能还有很长时间——毕竟他们还有18年的AI都没发呢。

    37710编辑于 2023-02-28
  • 来自专栏爪哇缪斯

    面试题27:GC算法——复制算法

    查看JVM某个参数的值: muse@muse:/Users/muse/Desktop> jinfo -flag SurvivorRatio 11303 -XX:SurvivorRatio=8 muse@muse:/Users/muse/Desktop> jinfo -flag PretenureSizeThreshold 11303 -XX:PretenureSizeThreshold=0 // 默认值是0,意思是不管多大都是先在eden中分配内存 muse@muse:/Users/muse/Desktop> jinfo -flag

    23910编辑于 2023-05-09
  • 来自专栏高端IT

    关于Vue移动端框架(Muse-UI)的使用(说明书,针对不愿看文档的童鞋)

    一、安装 1、npm安装 npm i muse-ui -S 或者 CDN安装 <link rel="stylesheet" href="https://unpkg.com/<em>muse</em>-ui/dist/<em>muse</em>-ui.css "> <script src="https://unpkg.com/<em>muse</em>-ui/dist/<em>muse</em>-ui.js"></script> 2、字体安装 <link rel="stylesheet" href family=Roboto:300,400,500,700,400italic"> 如果你想使用muse内置的Roboto字体,这里可以选择安装 3、字体图标 <link rel="stylesheet 二、引入使用 1、完整 import Vue from ‘vue’; import MuseUI from ‘<em>muse</em>-ui’; import ‘<em>muse</em>-ui/dist/<em>muse</em>-ui.css’; Vue.use babel-plugin-import less less-loader -D 然后在 在根目录下找到.babelrc文件,修改如下: { “plugins”: [ [“import”, { “libraryName”: “<em>muse</em>-ui

    68540编辑于 2022-06-02
  • 来自专栏爪哇缪斯

    Docker入门与实战

    路径下muse.sql文件拷贝到容器cfa323cdc6bc中home目录下的 docker cp /home/muse/muse1.sql cfa323cdc6bc:/home docker cp @0e3eeb77a02c muse01]# ls [root@0e3eeb77a02c muse01]# touch a.txt [root@0e3eeb77a02c muse01]# ls a.txt 构造镜像 # docker build -f /home/muse/dockerfiles/dockerfile01 -t muse/centos:1.0 . ,分别是muse01和muse02 在容器中,进入muse01中创建一个文件 [root@iZ2ze5ffbqqbeaygcx7o4xZ dockerfiles]# docker run -it eb78333356a6 muse01]# ls [root@594282a5a5c4 muse01]# touch a.txt [root@594282a5a5c4 muse01]# ls a.txt CTRL+P+Q 退出容器

    53321编辑于 2023-05-10
  • 来自专栏DeepHub IMBA

    论文推荐:谷歌Masked Generative Transformers 以更高的效率实现文本到图像的 SOTA

    Muse构建在谷歌的T5之上,T5是一个大型语言模型,它接受各种文本到文本任务的训练,可通过掩码transformer 架构生成高质量图像。 Muse 从 T5 嵌入中继承了有关对象、动作、视觉属性、空间关系等的丰富信息;并学习将这些丰富的概念与生成的图像相匹配。 在他们的实证研究中,Muse与各种文本到图像生成任务的流行基准模型进行了比较。 Muse 900M参数模型在CC3M数据集上实现了新的SOTA, FID评分为6.06(越低越好),而Muse 3B参数模型在零样本COCO获得了7.88的FID评分,CLIP 分数为 0.32。 Muse展示了令人印象深刻的无需微调的零样本编辑功能,进一步证实了冻结的大型预训练语言模型作为文本到图像生成的强大而高效的文本编码器的潜力。

    86630编辑于 2023-02-01
  • 来自专栏爪哇缪斯

    面试题29:垃圾收集器——串行回收器

    muse@muse:/Users/muse/Desktop> jinfo -flag UseSerialGC 11303 -XX -XX:+PrintCommandLineFlags打印虚拟机显式和隐式参数 muse@muse:/Users/muse/Desktop> jinfo -flag PrintCommandLineFlags

    20810编辑于 2023-05-09
  • 来自专栏AiCharm

    每日学术速递1.30

    摘要: 我们提出了Muse,一个文本到图像的转化器模型,实现了最先进的图像生成性能,同时比扩散或自回归模型的效率高得多。 Muse是在离散标记空间的遮蔽建模任务上训练的:给定从预先训练的大型语言模型(LLM)中提取的文本嵌入,Muse被训练来预测随机遮蔽的图像标记。 与像素空间的扩散模型(如Imagen和DALL-E 2)相比,由于使用了离散的标记并需要较少的采样迭代,Muse的效率明显更高;与自回归模型(如Parti)相比,由于使用了并行解码,Muse的效率更高。 Muse 3B参数模型在零次COCO评估中实现了7.88的FID,同时还有0.32的CLIP得分。Muse还直接实现了一些图像编辑应用,而不需要对模型进行微调或反转:内画、外画和无遮挡编辑。 Muse is trained on a masked modeling task in discrete token space: given the text embedding extracted

    35330编辑于 2023-05-15
  • 来自专栏智药邦

    中山大学杨跃东团队提出MUSE模型,通过变分期望最大化框架预测蛋白质和药物相互作用

    作者提出了MUSE,这是一个多尺度变分期望最大化(EM)的表示学习框架(MUiti-Scale EM, MUSE),可以在多个迭代的交替过程中优化不同的尺度。 实验结果表明,MUSE的性能超越了现有模型。 如图1所示,MUSE是一种多尺度学习方法,通过变分期望最大化(EM)框架,将分子结构建模和蛋白质与药物相互作用网络学习相结合。 MUSE-joint的F1分数低于完整的MUSE,但由于其仍具有多尺度网络的结构,其效果也仍高于其他方法。 图3 消融实验 作者还进行了案例分析。 为了更好地理解学习到的多尺度表征,作者从不同的角度对MUSE学习到的多尺度表征进行了研究,包括:(1)MUSE捕获PPI中涉及的原子结构信息的能力,以及(2)MUSE学习到的原子结构和分子网络表征之间的相互监督 此外,MUSE中的分子网络尺度学习为进一步优化原子结构尺度模型以增强蛋白质表征提供了有价值的见解。 虽然MUSE在实验中展示了最先进的性能,但未来仍可以提高其处理噪声和不完整的多尺度下游任务的能力。

    56410编辑于 2024-09-12
  • 来自专栏新智元

    谷歌发布新一代文本-图像生成模型Muse:生成效率提升十倍

    )模型,Muse模型的效率也提升非常多。 论文链接:https://arxiv.org/pdf/2301.00704.pdf 项目链接:https://muse-model.github.io/ Muse以masked modeling任务在离散 与像素空间的扩散模型(如Imagen和DALL-E 2)相比,由于Muse使用了离散的token,只需要较少的采样迭代,所以效率得到了明显提高; 与自回归模型(如Parti)相比,由于Muse使用了并行解码 Muse模型 Muse模型的框架包含多个组件,训练pipeline由T5-XXL预训练文本编码器,基础模型(base model)和超分辨率模型组成。 1. 生成图像的质量 实验中测试了Muse模型对于不同属性的文本提示的能力,包括对cardinality的基本理解,对于非单数的物体,Muse并没有多次生成相同的物体像素,而是增加了上下文的变化,使整个图像更加真实

    1.1K30编辑于 2023-02-24
  • 来自专栏爪哇缪斯

    趣解设计模式之《会飞的橡皮鸭》

    public void display() {        System.out.println("诱饵鸭的外貌特征");    }}/** * @description 绿头鸭 * @author: muse public void display() {        System.out.println("绿头鸭的外貌特征");    }}/** * @description 红头鸭 * @author: muse     void quack();}创建具体的叫声行为子类:MuteQuack.java、Quack.java和Squeak.java/** * @description 不会叫 * @author: muse public void quack() {        System.out.println("普通鸭子的呱呱叫");    }}/** * @description 吱吱叫 * @author: muse {        System.out.println("橡皮鸭的吱吱叫");    }}测试类:StrategyTest.java/** * @description 测试类 * @author: muse

    40521编辑于 2023-09-19
领券