首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏.NET开发那点事

    AgileConfig 1.8.0 已适配 .NET8

    本月圈子里最大的事莫过于 .NET8 正式 release。群友们都在适配 .NET8。抽个周末我也把 AgileConfig 升级到了 .NET8。 升级 升级 .NET8 修改所有项目的目标框架为 .NET8.0 升级 nuget 包 在 nuget 包管理器里把所有能更新的包全部更新到最新。 这个问题其实跟 .NET8 没有关系,应该是我 3.1 升 6 的时候遗忘了。 把 6 改成 8,其他不用改,超级简单。 通过以上操作,在本地运行没有问题,打包成镜像后在本地 docker desktop 环境下跑也没问题。 只是最新的 .aspnet8 runtime 的镜像对低版本的 docker engine 兼容性有点问题,使用 docker 跑的同学需要注意一下。

    64410编辑于 2023-12-11
  • Chronos:语言模型架构适配时序预测

    Chronos:适配语言模型架构用于时间序列预测将时间序列数据分词并像语言一样处理,使得模型的零样本性能能够匹配甚至超越专用模型。 然而,开发基于机器学习的准确预测模型传统上需要大量针对数据集的调整和模型定制。在刚刚发布到arXiv的一篇论文中,提出了Chronos,一个基于语言模型架构的预训练时间序列模型家族。 与大型语言模型或视觉语言模型一样,Chronos是一个基础模型,它从大型数据集中学习如何生成适用于广泛任务的通用表示。 中间:标记被输入到语言模型中,该模型使用交叉熵损失进行训练。右侧:在推理过程中,标记从模型中自回归采样,并映射回数值。尽管其架构简单,Chronos却异常准确。 从业者无需为每个特定应用训练单独的模型,而是可以直接使用现成的Chronos模型立即进行准确预测,从而降低计算成本并更容易采用先进的预测技术。

    15110编辑于 2026-04-06
  • 来自专栏∑小熊猫的博客

    Java 设计模式系列(8) —— 适配器模式

    适配器模式 适配器模式的定义: 将一个类的接口变换成为客户端所期待的另一个接口,从而使原本因接口不匹配而无法在一起工作的两个类可以在一起工作。 采用适配模式的目的是将先有的旧接口转换成新的刻画短接口,我们的目标是尽可能多地重用原来已经测试过的代码,并且可以对新接口自由地进行修改。 适配器的三个角色: Target 目标角色:该角色定义要转换成的目标接口 Adaptee 源角色: 需要被转换的就的接口 Adapter 适配器角色: 通过继承Target 适配器的简单示例 ? System.out.println("Start DoingFunction"); super.doFunction(); System.out.println("End DoingFunction"); } } 适配器模式的优点和使用场景 优点: 适配器可以让两个没有任何关系的类在一起运行 增加了类的透明性 提高了类的复用度 提高代码的灵活性 使用场景: 在投产的系统中,对原有的类进行改造,使其适应新的接口

    41810发布于 2021-01-06
  • 来自专栏vue学习

    8、手机适配问题之rem和lib-flexible

    前言:GitHub:https://github.com/Ewall1106/mall 一、关于lib-flexible.js flexible方案是手淘经过多年的摸索和实战,总结出的一套移动端适配方案 ,这里我推荐一篇w3c大漠老师的一篇文章使用Flexible实现手淘H5页面的终端适配,里面详细的讲解了该方案的使用和原理。

    1.8K20发布于 2018-09-04
  • 来自专栏Python与算法之美

    8模型的训练

    根据问题特点选择适当的估计器estimater模型: 分类(SVC,KNN,LR,NaiveBayes,...) 回归(Lasso,ElasticNet,SVR,...) 一,分类模型的训练 ? ? ? ? ? ? ? ? ? 二,回归模型的训练 ? ? ? ? ? ? ? ? 三,聚类模型的训练 KMeans算法的基本思想如下: 随机选择K个点作为初始质心 While 簇发生变化或小于最大迭代次数: 将每个点指派到最近的质心,形成K个簇 重新计算每个簇的质心 ? 四,降维模型的训练 PCA主成分分析(Principal Components Analysis)是最常使用的降维算法,其基本思想如下: 将原先的n个特征用数目更少的m个特征取代,新特征是旧特征的线性组合 可以结合FeatureUnion 和 Pipeline 来创造出更加复杂的模型。 ?

    82031发布于 2020-07-17
  • 来自专栏QQ音乐技术团队的专栏

    全民k歌适配arm64-v8a方案

    新的架构有如下几个特性: 最新的64位指令集,支持64位操作(指令长度依然为32位); 64位地址; 继承LPAE格式,支持最高48位的虚拟地址; 更新了内存模型,和最新的C++11/C1x标准的内存模型更加统一等等更优秀的特性 一个直观的表现就是,32位软件最大只能使用2^32=4G的内存,64位则是2^40=1T,可以看到,V8架构在性能方法无疑有着质的提升,程序适配后将有更好的性能表现。 2.全民k歌为什么要适配Arm64 虽然Arm64架构推出的时间也比较早,但由于市面上适配的设备寥寥,android厂商的主要soc提供商高通直到2014年才推出了第一款适配arm64-v8a的产品,同时由于 但是设备在实际运行时,仅使用apk中包适配自己的最新的那个架构,比如上面同时包含了armeabi-v7a和arm64-v8a两种架构,设备的cpu最新架构是arm64-v8a,虽然设备使用V7a的so也能使用 各业务更新好so之后,添加到上面工程对应路径libs/arm64-v8a即可,如果对应的java接口没有变更,到这就算完成里初步的适配了,剩下的就是功能调试和业务自测。

    4.3K11发布于 2021-02-05
  • 来自专栏十月梦想

    移动端适配之终极适配方案rem适配

    前面几篇移动端专区博文简单介绍了移动端的概述,以及简单的适配方案,百分比适配,比例缩放适配,viewport适配等,但是难免都有一些各种问题! 这次这个rem终极适配方案,是目前移动端的较为完美的适配方案! 简单介绍一下这个rem适配 px  固定值,设置多少就是多少不随屏幕大小改变 em  相对于自身字体大小 font-size:12px;  1em=12px em引发问题  1.chrome浏览器下规定字体最小 html)字体设置 html{ font-size:12px; } 1rem=12px,5rem=60px; 首先要去设置这个html(根节点的字体大小),rem是根据这个根节点的字体大小进行适配 当然去适配的时候这个根节点的大小如何设置才能更好适配呢?

    2K20发布于 2018-08-29
  • 来自专栏csico

    K8s网络模型

    Docker网络模型 容器 容器不是模拟一个完整的操作系统,而是对进程进行隔离,对容器里的进程来说它接触到的各种资源都是独享的,比虚拟机启动快、占用资源少。 但是容器重启后又恢复原值,若想永久的修改可通过/etc/docker/daemon.conf里制定dns,/etc/hosts记录容器的ip,/etc/hostname记录容器的名称 Calico网络模型 K8s网络模型 K8s术语 K8S 是一个用于容器集群的分布式系统架构。 K8s网络 K8s网络包括CNI、Service、Ingress、DNS 在K8s网络模型中,每个节点上的容器都有自己独立的IP段,节点之间的IP段不能重复,而节点也需要具备路由能力,使从本节点Pod里出来的流量可以根据目的 K8s主机内网络模型 K8s采用的是veth pair+bridge的模式,veth pair将容器与主机的网络协议栈连接起来,可以使pod之间通信。

    2.5K32发布于 2021-09-02
  • 来自专栏Java编程技术

    K8s网络模型

    每个Pod自己看到的自己的ip和其他Pod看到的一致 k8s网络模型设计基础原则:每个Pod都拥有一个独立的 IP地址,而且 假定所有 Pod 都在一个可以直接连通的、扁平的网络空间中 。 由于 Kubemetes 的网络模型假设 Pod 之间访问时使用的是对方 Pod 的实际地址,所以一个 Pod 内部的应用程序看到的自己的 IP 地址和端口与集群内其他 Pod 看到的一样。 其实是使用Docker的一种网络模型:–net=container container模式指定新创建的Docker容器和已经存在的一个容器共享一个网络命名空间,而不是和宿主机共享。 网络模型需要每个pod必须通过ip地址可以进行访问,每个pod的ip地址总是对网络中的其他pod可见,并且每个pod看待自己的ip与别的pod看待的是一样的(虽然他没规定如何实现),下面我们看不同Node 24 = 16,777,216(一千多万),一般每个 VNI 对应一个租户,也就是说使用 vxlan 搭建的公有云可以理论上可以支撑千万级别的租户 Tunnel:隧道是一个逻辑上的概念,在 vxlan 模型中并没有具体的物理实体想对应

    4.2K24发布于 2019-04-18
  • 来自专栏十月梦想

    移动端适配之viewport适配

    前面说过了比例缩放适配,本来想直接介绍rem适配!还是补充一下这个viewport适配吧!其实这个viewport也归属于比例缩放适配的一种吧! 首先我们可以获取到当前设备的独立像素(window.screen.width),然后通过适配的像素比(dpr)还原其真实逻辑像素(物理像素),然后在其还原后的设备像素上进行适配. 那么这个viewport适配有什么问题呢? (比例缩放时候讲过),尽管这样,也算尽量尽可能的去适配!随后继续介绍较为完美的rem布局适配方案!淘宝的布局方案,也算此种方式!不过适配的是dpr2.0的!

    1.3K10发布于 2018-08-29
  • 来自专栏技术汇总专栏

    智能体预训练模型选型指南-通用基座与任务专用模型适配之道

    智能体预训练模型选型-通用基座模型与任务专用模型适配策略在智能体(Agent)技术飞速发展的今天,预训练模型选型直接决定了智能体的能力上限与落地效率。 成本优先级:需控制算力/API成本时,专用模型(自部署)比通用模型API更具长期优势。三、适配策略:场景化模型选型与落地方案基于上述维度,本文提出三类核心适配策略,并结合代码实战验证其可行性。 核心逻辑:利用通用基座的泛化能力,通过Prompt设计(如指令Prompt、Few-shotPrompt)引导模型适配目标任务,无需模型微调。 通用基座模型(开源可商用)model_name="meta-llama/Meta-Llama-3-8B-Instruct"tokenizer=AutoTokenizer.from_pretrained( 效果说明:通过Prompt模板,Llama3-8B可快速适配对话、摘要、翻译等多任务,响应时间≤500ms(GPU:A10G),准确率满足通用场景需求(摘要准确率≈85%,翻译准确率≈90%),开发周期仅需

    50710编辑于 2025-12-17
  • QClaw 多模型适配技术:为什么它能成为所有大模型的 插座

    二、QClaw 多模型适配的设计思想QClaw 的多模型适配技术,是基于 "模型无关" 的设计思想构建的。什么是 "模型无关"?简单来说,就是 QClaw 的核心逻辑不依赖于任何特定的大模型。 三、QClaw 多模型适配的技术实现现在我们来看看 QClaw 的多模型适配技术具体是怎么实现的。QClaw 的多模型系统主要由三个部分组成:模型抽象层、模型适配器和模型路由器。我们一个一个来看。 模型适配模型适配器是连接模型抽象层和具体大模型 API 的桥梁。每个大模型都有一个对应的模型适配器。模型适配器的主要工作是:把 QClaw 统一的请求格式转换成对应大模型的请求格式。 模型适配器会把 QClaw 统一的函数调用格式转换成对应大模型的函数调用格式。如果某个大模型不支持函数调用,模型适配器会模拟函数调用的功能,让核心逻辑以为这个大模型支持函数调用。 而且,QClaw 还开放了模型适配器的接口。任何人都可以编写自己的模型适配器,把任何大模型接入 QClaw。这大大扩展了 QClaw 的模型支持范围。3.

    39320编辑于 2026-04-09
  • 来自专栏AlbertYang的编程之路

    设计模式(8)-JavaScript设计模式之如何实现适配器模式???

    1 什么是适配器模式? 适配器模式是将一个接口(对象的属性和方法)转换为另一个接口。适配器允许编程组件协同工作,否则由于接口不匹配而无法协同工作。适配器模式也称为包装器模式。 适配器所适配的两个方法执行的应该是类似的任务,否则它就解决不了问题了。适配器模式有利于避免大规模改写现有客户代码。但另一方面如果现有API还未定形,或者新接口还未定形,那么适配器可能会不管用。 DOCTYPE html> <html> <head> <meta charset="utf-<em>8</em>"> <title>适配器模式:公众号AlbertYang</title var shipping = new Shipping(); var credentials = { token: "30a8- ,比如把一个有序的数组转化成我们需要的对象格式: <script> var arr = ['张三', '18', '河南郑州', '2020年8月2日'] // 转化成我们需要的格式

    1.3K41发布于 2020-09-08
  • 技术分享 | i.MX8M Mini适配MIPI转eDP芯片

    1.方案概述此方案使用HD-8MMN-CORE的核心板搭配TI公司的芯片SN65DSI86转换芯片实现。 HD8MMN-CORE系列工业级核心板基于NXP(Freescale) i.MX8MM系列Cortex-A53高性能处理器设计,支持硬件加密,支持摄像头接口、USB3.0接口、HDMI/MIPI、PCIe 100000>; status = "okay"; brightness-levels = < 0 1 2 3 4 5 6 7 8

    69410编辑于 2024-05-08
  • 来自专栏Flutter入门到实战

    Android适配全面总结(一)----屏幕适配

    好了,言归正传,根据多年开发经验,总结一下Android适配主要表现在以下 3个方面: 1、屏幕适配。(网上讲的最多的就是这个。) 不同的系统版本api有所变更,既要适配高版本,也要做到兼容低版本。 具体讲解请看链接: http://www.jianshu.com/p/49fa8ebc0105 3、ROM适配。 这篇文章我们先讲解第一个问题 ---- 屏幕适配。 一、屏幕适配是啥(可能有人不懂,我在此简单解释一下)? 首先看一张图: 屏幕适配 具体实现方式 4.1 屏幕尺寸适配 4.1.1.布局适配 4.1.1.1. Stormzhang:Android 屏幕适配 鸿洋:Android 屏幕适配方案 凯子: Android屏幕适配全攻略(最权威的官方适配指导) ​

    4.6K50发布于 2018-09-03
  • 来自专栏CreateAMind

    大语言模型的可扩展贝叶斯低秩适配

    例如,在对一个拥有70亿参数、嵌入维度 d=3584的大模型进行微调时,若LoRA秩 r=8,BLoB需要数百万个额外参数,而ScalaBL仅需约1000个。 ,LoRA 秩设为 r=8。 与 Wang 等人 [2024] 不同,我们对冻结的模型参数使用 16 位精度训练,而非 8 位量化,而可学习参数仍保持 32 位精度。 需要说明的是,我们未报告拉普拉斯基线的结果,因为其事后(post-hoc)计算过程即使在使用8位参数且测试时批大小为1的情况下,仍超出了我们80GB A100 GPU的内存容量,这凸显了该方法在可扩展性方面的严重不足 在表7中,我们展示了使用公式(8)定义的SVD子空间的实验结果。此外,我们还包含了一项实验结果:在微调过程中冻结 A矩阵,这类似于 Izmailov 等人 [2020] 提出的随机子空间方法。

    12710编辑于 2026-03-11
  • Java接入AI大模型适配与稳定调用实践指南

    然而,当Java企业尝试将AI大模型融入现有架构时,多模型统一适配与生产级稳定调用成为两大核心障碍。 • 集成成本高昂:针对每款模型单独编写适配代码,导致业务代码与模型实现强耦合,后续切换模型时需修改核心逻辑,不仅增加开发工作量,还易引入系统风险。 • 协议适配引擎:根据模型类型,自动完成RESTful/gRPC等协议转换,处理鉴权参数封装、请求签名、响应解析,无需开发者针对不同模型编写适配代码。 3.1 统一适配能力• 多模型原生支持:内置20+主流大模型适配包,涵盖公有云、私有化、本地模型,无需开发者额外开发协议转换逻辑,通过简单配置即可完成模型接入。 • 动态模型管理:支持通过配置中心动态上下线模型,无需重启服务即可调整模型列表,适配业务需求变化,同时提供模型测试工具,支持在线调试不同模型的输出效果。

    25710编辑于 2026-03-13
  • 来自专栏鸿蒙开发笔记

    OpenHarmony 分布式音乐播放器适配了Stage模型

     OpenAtom OpenHarmony(以下简称“OpenHarmony”)应用开发自API 8及其更早版本一直使用的是FA模型进行开发。 此次适配Stage模型后,在润和大禹系列HH-SCDAYU200开发套件上,效果如下图所示:可以看到,此次更新,不仅使用了Stage模型适配,还使用ArkTS增加了一个音乐播放器首页列表的界面,以及播放时使用属性动画 这次使用Stage模型适配样例,主要是修改了如下几个地方:修改点1:代码目录的调整可以看到,相对于FA的目录结构,首先是在最上层目录里,增加了一个AppScope目录,这个目录下也是resources下的资源文件 北向开发环境搭建3.鸿蒙南向开发环境的搭建4.鸿蒙生态应用开发白皮书V2.0 & V3.05.鸿蒙开发面试真题(含参考答案) 6.TypeScript入门学习手册7.OpenHarmony 经典面试题(含参考答案)8. 总结OpenHarmony的FA模型能力已经停止演进,后续将会增强Stage模型。此次将现有的样例代码适配Stage模型,虽然整体代码修改量不大,但因为惯性思维以及API的变化,期间还是踩了不少坑。

    30820编辑于 2025-04-23
  • 来自专栏AI SPPECH

    推理工程师职责:模型适配与优化

    3.3.1 量化优化 量化是将模型权重从高精度(如FP16)转换为低精度(如INT8、INT4)的过程,可以降低内存占用和提高推理速度。 量化类型: W8A16量化:权重使用INT8,激活使用FP16,平衡精度和性能。 W4A16量化:权重使用INT4,激活使用FP16,进一步降低内存占用。 engine_args = AsyncEngineArgs( model="deepseek-ai/DeepSeek-V2-Lite-Chat", kv_cache_dtype="fp8" ( model="deepseek-ai/DeepSeek-V2-MoE-Chat", tensor_parallel_size=8, moe_num_experts=128, 8 3.6.2 适配过程 模型分析: 模型架构:MoE架构,128个专家,top-k=2路由 Tokenizer:自定义SentencePieceTokenizer 权重格式:Safetensors 依赖

    23110编辑于 2026-01-20
  • 来自专栏十月梦想

    移动端适配之比例缩放适配

    前面一篇简单介绍了适配的方案(百分比适配),对于百分比的适配也是挺多问题,这次介绍一下viewport适配方案! 适配的思想呢? 此时我们可以将所有的设备的独立设备像素转为375px(ip6的),然后进行渲染适配,在375px上就行布局! 那么这个比例缩放适配存在什么问题呢? head的子元素 document.head.appendChild(meta) } )() </script>           然后进行去设置,这个宽度和高度相对于之前的百分比适配很好的提升 但是750px的图像等,在原始独立像素大于414的设备可能出现图像失真等问题,后面会详细介绍一下移动端终极适配方案rem适配 本博客所有文章如无特别注明均为原创。 原文地址《移动端适配之比例缩放适配》 分享到:更多 标签: 移动端适配 比例缩放适配

    1.6K30发布于 2018-08-29
领券