首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏企鹅号快讯

    黑客利用“Trition”恶意软件关闭了关键的基础设施工厂

    文/仙踪数码 胜云 据网络调查人员和其软件被攻击的公司称,黑客最近入侵了国外一个关键基础设施的安全系统,这是一次分水岭攻击,导致工厂停止运营。 周四,火眼公司披露了这起事件,称其目标是施耐德电气SE公司的Triconex工业安全技术。施耐德证实,这一事件已经发生,并已向Triconex的用户发布了安全警报。网络专家表示,Triconex广泛应用于能源行业,包括核设施、石油和天然气工厂。 火眼和施耐德拒绝透露遭受袭击的受害者、行业或地点。在一次电话采访中,火眼的丹·斯卡利(DanScali)只说到这次

    729140发布于 2018-03-02
  • 来自专栏用户11467648的专栏

    PyTorch On Java 体系 视频课程已发布 AI Infra3.0 【硕士研一课程】

    libtorch 的全量代码编译的java版本,PyTorch On Java 来了,一万个重载的Tensor算子,混合精度,量化,AOT ,gloo nccl 分布式训练,flash attention ,支持 Trition

    3310编辑于 2026-03-11
  • 来自专栏全栈程序员必看

    html下划线 下移,css如何实现下划线滑动效果

    实现的主要效果是利用伪类标签,以及hover,利用transfromm trition实现动画效果。

    2.7K30编辑于 2022-09-03
  • 来自专栏福大大架构师每日一题

    lmdeploy v0.8.0发布!多项核心功能升级,性能爆表,打造AI部署新时代!

    保障绝佳体验 本次版本特别关注稳定性和兼容性,修复了包括: • 激活格网尺寸超限问题 • 多轮滑动窗口聊天崩溃 • Qwen2-VL及DeepSeek图像Token错误 • Flash Attention在特定Trition

    63210编辑于 2025-05-05
  • 来自专栏arXiv每日学术速递

    放弃Softmax,首个线性注意力Transformer大模型:1750亿参数,速度、精度更优

    图 2:数据预处理流程 表 2:语料库统计数据 实验 研究者在 Metaseq 框架中使用 PyTorch 和 Trition 实现了 TransNormerLLM。

    68530编辑于 2023-08-26
  • 来自专栏机器之心

    放弃Softmax,首个线性注意力Transformer大模型:1750亿参数,速度、精度更优

    图 2:数据预处理流程 表 2:语料库统计数据 实验 研究者在 Metaseq 框架中使用 PyTorch 和 Trition 实现了 TransNormerLLM。

    71030编辑于 2023-08-08
  • 来自专栏GiantPandaCV

    OpenAI/Triton MLIR 第三章: Triton-shared开箱

    然后再从AST到对应的triton dialect,从这一步开始,也就正式将用户手写的成分转到了MLIR这套生态,然后再从triton dialect进一步优化到triton gpu dialect,从trition

    2K10编辑于 2023-12-20
  • 来自专栏新智元

    AMD GPU性能暴涨7倍,优化算法首次开源!高效MoE支持任意专家数量

    /benchmark/kernels/fused_moe_trition && python benchmark_deepseekv3_moe_align_blocks.py --verify A100

    58510编辑于 2025-04-04
领券