首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏实战docker

    Vagrant定制个性化CentOS7模板

    的安装和基本操作,请参考《Mac下vagrant从安装到体验》; 环境信息 操作系统:macOS Mojave 10.14.6 Vagrant:2.2.5 VirtualBox:6.0.10 创建实例并完成个性化设置 创建一个centos7的实例,以此实例来做模板,新建个目录,在里面执行命令vagrant init centos/7; 再执行命令vagrant up启动实例; 执行命令vagrant ssh进入虚拟机 box add --name my-c7-template . zhaoqin@CN0014005932:~/vm/template$ vagrant box list centos/7 (virtualbox, 1905.1) customize-c7 您也可以检查其他的设置是否已经生效; 以上就是个性化虚拟机模板的制作过程,借助此功能可以高效的创建虚拟机实例,希望本文能够给您一些参考。

    1.1K20发布于 2019-10-22
  • 来自专栏企鹅号快讯

    人工智能与个性化学习

    而在企业培训的应用中,人工智能尚未达到像电影《黑客帝国》中的场景一样,不用学习就可将所需知识直接下载至脑中。因为学习个性化的,并且还要经历知识内化的过程,才能最终完成。 To老师:推进个性化辅导 “智能化系统”可以人根据学习者的程度与需求,匹配相关的资源,选取真正对其有用的内容,提供多元与个性化学习历程(Learning Experience),从而摒弃以往齐头并进式的课程规划 TO学员:提供个性化反馈 学习者过去在学习时,往往缺乏足够的演练机会,通过“智能化”的辅导系统,可以增加学习互动练习的机会,让学习者不断试错,进而加快提升学习者的熟练程度。 由于知识图谱构建了一个与搜索结果相关的完整知识体系,所以学习者往往会获得意想不到的发现。在搜索中,学习者可能会了解到某个新的知识或新的联系,从而进行一系列全新的搜索与学习。 并且有些”智能化”系统,还能根据过往学习者的学习历程以及本身的兴趣、能力或工作岗位,主动推荐相关资源。

    1.1K50发布于 2018-01-26
  • 个性化联邦学习提升客户体验

    联邦学习系统概述联邦学习(FL)框架允许多个边缘设备(如智能终端)在数据本地保存的前提下协作训练全局模型。标准FL系统包含云服务器和多个客户端设备,每个设备持有本地数据和机器学习模型副本。 表征单个客户端模型随时间的变化差异客户端间不确定性:反映同一时段不同用户模型间的差异程度Self-FL创新框架基于贝叶斯层次模型理论分析,提出自适应训练方法:动态本地配置:根据不确定性值调整三个关键参数本地初始化模型选择学习率设置早停规则阈值智能聚合规则 :突破传统按数据量加权的聚合方式,采用基于不确定性的自适应权重分配实验结果在包含图像和音频的7个数据集测试中,相比7种现有FL算法:全局模型准确率最高提升12.7%个性化本地模型平均精度改善15.3%训练效率提升约 20%该方法已应用于某机构的边缘计算平台,显著提升了智能终端对用户个性化需求的响应能力。

    23400编辑于 2025-08-02
  • 来自专栏我爱计算机视觉

    Per-FedAvg:联邦个性化学习

    这种方法保留了联邦学习体系结构的所有好处,并通过结构为每个用户提供了更个性化的模型。 传统联邦学习设置如下图1所示,传统的联邦学习设置是由中央服务器汇聚所有客户端模型的参数进行平均聚合获取全局模型。 图1:传统FL设置 作者通过考虑一个包含个性化的联邦学习模型的修正损失函数来克服这个问题,作者基于元学习MAML的思想出发去做联邦学习个性化,主要是以下两点: 1)目标是找到所有用户之间共享的初始点,在每个用户更新自己的损失函数后表现良好 使用元学习和多任务学习来实现个性化并不限于MAML框架,还考虑了一个训练单个全局模型和局部模型的框架,为每个用户提供个性化的解决方案;以及另一论文作者提出了一种自适应联邦学习算法,该算法学习局部和全局模型的混合作为个性化模型 ▊ 通过模型不可知论的元学习进行个性化联邦学习 如果我们假设每个用户都接受初始点,并使用关于它自己的损失函数的一个梯度下降的步骤来更新它: 这个公式的优点是,它不仅允许我们保持FL的优势,而且它捕获用户之间的区别 同时也间接证明了作者所提模型不可知论的元学习进行个性化联邦学习方法的有效性。核心就是作者通过MAML的启发来作为模型初始化参数再利用微调适应本地私有数据,从而提升模型性能与效率。

    2.2K11编辑于 2022-04-18
  • 来自专栏雪萌天文台

    个性化系统安装镜像iso教程(win7及以上)

    开始之前: 结果展示: 其它功能:跳过oobe…(实在想不出还有什么东西了) 准备工具: (注意:以下所涉及到的软件均在专栏底部放置链接) Dism++,UltraISO,系统镜像(与所个性化系统对应 iso第一步成功,接下来我们来个性化安装界面: 注意:本单元使用文件更换法,请准备好对应的文件以继续: 3.实现图一,图二效果 (请准备好1024x768的bmp/jpg图片,注意:可使用格式工厂转换格式 ) 替换挂载目录的Windows/boot目录下的Resources文件夹(两个版本都是),保存映像(还是直接保存) 将保存好的boot.wim替换iso里的boot.wim,保存即可 然后继续把需要个性化 软件下载地址BV: Dism++:BV1UZ4y157BJ 镜像msdn/UltraISO:BV1H7411d7k8 视频所引用图片:BV1Ni4y1V7u8 以上全都是up主亲手制作 视频灵感来源(up 主:GTX690战术核显卡导弹):BV1Wc411h7fZ 作者:White_mu https://www.bilibili.com/read/cv7918196

    1.9K30编辑于 2023-05-04
  • 个性化联邦学习提升客户体验技术解析

    联邦学习系统概述联邦学习(FL)是一种允许边缘设备(如智能语音设备)在保持客户数据本地化的前提下协作训练全局模型的框架。 标准FL系统包含云服务器和多个客户端(设备),每个设备拥有本地数据及机器学习模型的本地副本。 在每轮FL训练中:云服务器向客户端发送当前全局模型客户端使用设备端数据训练本地模型并上传至云端服务器聚合本地模型并更新全局模型FL还包含个性化分支,旨在定制本地模型以提升其在本地数据上的性能。 通过量化两种新型异构性指标:客户端内不确定性:描述本地模型随时间变化的差异客户端间不确定性:表征相同时段内不同用户本地模型的差异客户端间不确定性越大表明边缘设备间数据分布越异构,个性化越重要;客户端内不确定性越大意味着本地模型参数在 Self-FL技术框架基于贝叶斯分层模型的理论分析,提出Self-FL方法:本地配置三要素:本地初始模型(训练起点)学习率(控制单样本对网络权重的影响程度)早停规则(防止过拟合的训练终止机制)自适应聚合规则

    28110编辑于 2025-09-12
  • 来自专栏PPV课数据科学社区

    学习】用Tagxedo在线制作个性化词云

    沈浩老师曾在搜狐博客分享过一篇关于词云制作的文章,详细的描述了个性化词云制作的思路和工具。今天我们也来学习一下如何用Tagxedo在线制作个性化词云。 ? 采用sliverlight渲染,优点在于可以自定义词云的形状,可以提取导入的文本或者Url内容的高频词作为构成元素,绘制个性化的词云。 本文采用第三种方式load以下内容(此次只复制7行,其他省略): 数据小兵 2697 数据分析师不是数羊的 156 因子分析 93 数据分析解决方案 65 数据分析 59 聚类分析 55 聚类分析案例 7、保存: 左侧的Save按钮,可进行图片格式、大小等选择,甚至直接进行打印。

    3.3K50发布于 2018-04-23
  • 来自专栏PPV课数据科学社区

    学习个性化推荐十大挑战(上)

    有读者觉得个性化推荐就等同于协同过滤,这可能是因为协同过滤应用比较广泛并且比较容易为大众理解。实际上协同过滤只是个性化推荐技术中的一个成员。 总的来说,协同过滤只是个性化推荐技术中的一款轻武器,远远不等于个性化推荐技术本身。 图1:信息服务的两次变革:从总体到群体,从群体到个体。 有些读者可能不是很了解个性化推荐,我先推荐一些阅读的材料。 这篇文章质量不能说很好,但是可以比较快得到很多信息,了解个性化推荐研究的概貌。有了这个基础,如果想要了解突出应用的算法和技术,我推荐项亮和陈义合著的《推荐系统实践》。 百分点科技出版过一本名为《个性化:商业的未来》的小册子,应用场景和商业模式介绍得比较细致,技术上涉及很少,附录里面介绍了一些主流算法和可能的缺陷,或许能够稍有启发。 有些读者认为个性化推荐技术的研究已经进入了很成熟的阶段,没有什么特别激动人心的问题和成果。恰恰相反,现在个性化推荐技术面临很大的挑战,这也是本文力图让大家认识的。接下来进入正题!

    94330发布于 2018-04-19
  • 来自专栏我爱计算机视觉

    个性化联邦学习PFedMe详细解读(NeurIPS 2020)

    为了解决这些异构性挑战,一种有效的方法是在设备、数据和模型级别上进行个性化处理,以减轻异构性并为每个设备获得高质量的个性化模型,即个性化联邦学习(Personalized Federated Learning 通过该方案,客户端不仅可以像经典联邦学习一样构建全局模型,而且可以利用全局模型来优化其个性化模型。 是一个联邦元学习方法,基于经典元学习的与模型无关的元学习MAML框架,Per-FedAvg的目标是找到一个全局模型ω,可以用它作为初始化全局模型,进一步对损失函数执行梯度更新(步长为 α)来得到它的个性化模型 05 总结 该论文提出了一种个性化联邦学习方法pFedMe。 实验结果表明,在凸和非凸环境下,使用真实和合成数据集,pFedMe 的性能都优于经典 FedAvg 和基于元学习个性化联邦学习算法 Per-FedAvg。

    2.6K20编辑于 2022-04-18
  • 个性化医疗与机器学习:创新与发展

    机器学习在这一领域中的应用,通过对大量医疗数据的分析和模式识别,能够为医生提供更准确、个性化的诊断和治疗建议。本文将详细探讨机器学习个性化医疗中的部署过程,并通过实例展示其在不同方面的应用。 可解释性机器学习 未来的发展方向之一是研究可解释性更强的机器学习模型。在个性化医疗中,患者和医生对于模型决策的理解至关重要。 结论 个性化医疗在机器学习的推动下取得了显著的进展,为医疗领域带来了新的可能性。未来的发展方向将集中在多模态数据的融合、可解释性机器学习、患者参与和教育,以及长期跟踪与预防等方面。 这些创新将进一步提升个性化医疗的水平,为患者提供更全面、精准和温暖的医疗服务。随着技术的不断进步和医学理念的演进,个性化医疗必将成为未来医学的重要发展方向。 机器学习个性化医疗领域的应用为医疗体系注入了新的活力,通过深度学习患者个体特征,为医生提供更准确、个性化的诊断和治疗方案。

    58100编辑于 2024-02-02
  • 来自专栏KI的算法杂记

    arXiv | FedPer:带个性化层的联邦学习

    模型 FedPer如下所示: 可以看到,所有客户端模型共享基本层(蓝色),然后由于数据分布的不同,不同客户端模型具有不同的个性化顶层。 2. 图片 :第 图片 个客户端的个性化层的权重矩阵。 因此,神经网络的forward pass可以描述为: 客户端的样本首先经过基本层,然后再经过个性化层,最后得到输出。 客户端初始化自己的个性化层权重 图片 。 3. 服务器端将 图片 发送到各个客户端。 4. 服务器端和客户端都执行相同的循环:客户端收到服务器传来的基本层权重,然后利用本地数据来进行SGD更新: 其中 图片 表示当前学习率, 图片 为本地训练轮数, 图片 为batch size。 FedAvg中只有一个全局模型,所有客户端都使用该全局模型,而FedPer中每个客户端都有自己的个性化模型。 代码实现较为简单,放在下一篇文章。

    1.3K30编辑于 2022-11-09
  • 个性化推荐系统的深度学习技术解析

    个性化推荐系统的深度学习技术解析某中心庞大的商品目录使得以无数种方式个性化客户的购物体验成为可能。当某中心商店预见到您回来购买您的狗喜欢的零食时,您在首页上看到这个选项并不奇怪。 深度学习驱动的实时推荐某研究团队利用科学为客户提供最相关的产品。作为个性化战略计划的研究科学总监,该团队应用深度学习为客户提供量身定制的实时推荐。" 推荐算法研究突破该团队已发表关于如何在可能选择领域中优化推荐的研究——例如,《不要推荐显而易见的:估计概率比》论文中,他们展示了流行度采样指标如何更适合个性化推荐,因为它们直接衡量系统识别对用户特殊商品而非一般可能商品的能力 虽然深度学习算法优于传统方法,但默认情况下,它们不会为得出的结论提供任何理由。"通常,如果客户知道他们为什么收到推荐,他们更有可能与推荐互动。但我们谈论的是数百万条记录才能得出响应。

    24110编辑于 2025-11-06
  • 来自专栏Python深度学习

    使用Python实现深度学习模型:智能教育与个性化学习

    介绍智能教育和个性化学习通过数据分析和深度学习模型,帮助学生根据个人需求和学习进度定制学习计划,提高学习效果。 在这篇教程中,我们将使用Python和TensorFlow/Keras库来构建一个深度学习模型,用于智能教育和个性化学习。 DOCTYPE html><html lang="en"><head> <meta charset="UTF-8"> <title>智能教育与个性化学习系统</title></head><body >

    智能教育与个性化学习系统

    <form action="/predict" method="post"> <label for="age">年龄:</label from app import appif __name__ == '__main__': app.run(debug=True)总结在这篇教程中,我们使用Python构建了一个深度学习模型,用于智能教育和个性化学习

    40510编辑于 2024-07-30
  • 来自专栏各类技术文章~

    Redis学习7

    Redis 作为一个内存服务器,它需要处理很多来自外部的网络请求,它使用I/O多路复用机制同时监听多个文件描述符的可读和可写状态,一旦受到网络请求就会在内存中快速处理,由于绝大多数的操作都是纯内存的,所以处理的速度会非常地快。Redis在4.0后的版本中引入多线程,但仅在部分命令上引入,比如非阻塞的删除操作,在整体的架构设计上,主处理程序还是单线程模型的。无论是使用单线程模型还是多线程模型,都是为了更好地提升Redis的开发效率和运行性能。

    34020发布于 2021-09-16
  • 来自专栏c++与qt学习

    Qt学习-----------7

    c++11中lambda表达式用于定义并创建匿名的函数对象 lambda表达式的基本构成:

    38810发布于 2021-02-22
  • 来自专栏互联网研发闲思录

    个性化推荐系统(八)--- 机器学习深度学习召回集扩量

    个性化推荐系统评价有两个重要指标,一个是召回率一个是准确率。召回率就是:召回率=提取正确信息条数/样本中信息条数。准确率就是:准确率=提取出正确信息条数/提取信息条数。 召回率大小直接影响准确率,直接影响机器学习模型、深度学习模型线上效果。 ?         是机器学习模型第一步,第二步是不断扩大线上召回集,增加新特征来提升点击量预估准确率。        

    1.5K50发布于 2018-01-03
  • Sitecore个性化 - 什么是历史个性化

    顾名思义,Sitecore中的历史个性化允许您根据访问者过去在您网站上的行为来设置个性化规则。 许多组织选择Sitecore  作为其高级个性化功能的网站平台 - 历史个性化只是一种方法。 查看我们关于Sitecore个性化的文章- 基础知识 历史个性化如何运作? 想象一下,你是一家白色家电制造商或零售商。 您计划在过去六个月内通过特别优惠向所有购买新洗衣机的客户发送电子邮件。 这是历史个性化个性化需要发挥人们的情感,让他们对自己和品牌感觉良好。 为什么历史个性化很重要? 通过为现有客户推出数字红地毯,为他们提供个性化的产品,服务和体验,您可以推动销售和交叉销售机会,并将他们变成生活的拥护者 - 从而推动新客户您。 如何在Sitecore中设置历史个性化? 使用Sitecore访客概要分析 访问者分析是开始使用Sitecore强大的个性化功能的简单方法。 通过创建访问者个人资料,您可以根据他们的兴趣,当然还有他们的历史记录,为访问者提供内容。

    25200编辑于 2025-04-05
  • 来自专栏机器学习算法原理与实践

    用tensorflow学习贝叶斯个性化排序(BPR)

        在贝叶斯个性化排序(BPR)算法小结中,我们对贝叶斯个性化排序(Bayesian Personalized Ranking, 以下简称BPR)的原理做了讨论,本文我们将从实践的角度来使用BPR做一个简单的推荐 以上就是用tensorflow学习BPR的全部内容。 (欢迎转载,转载请注明出处。欢迎沟通交流: liujianping-ok@163.com)    

    1.2K20发布于 2018-08-07
  • 来自专栏媒矿工厂

    机器学习创建个性化、快餐式媒体内容

    ,进而获取丰富的元数据,然后根据用户的喜好来推送个性化的快餐式内容。 YouTube现在的个性化推荐引擎由一系列机器学习算法组成,数据显示用户在YouTube上观看视频时间的70%是由于他们的个性化推荐引擎的关系。 Netflix 的内容推荐流程包含了多种机器学习算法,而且他们也利用机器学习个性化的方式来为用户推送内容。他们报道称80%的内容消费来自自身的推荐系统而且剩下20%来源于他们的搜索服务。 据他们估计每年由于个性化和推荐系统的综合影响可以节省超过10亿美元。这些发现证明了个性化内容推荐的重要性。 “Faster R-CNN: Towards Real-time Object Detection with Region Proposal Networks”, 2015 NIPS. [7] M.

    1.3K20发布于 2018-10-25
  • 来自专栏MiningAlgorithms

    机器学习7:集成学习--XGBoost

    对于特征的值有缺失的样本,xgboost可以自动学习出它的分裂方向。 7. xgboost工具支持并行。boosting不是一种串行的结构吗?怎么并行的? RF和Bagging对比:RF的起始性能较差,特别当只有一个基学习器时,随着学习器数目增多,随机森林通常会收敛到更低的泛化误差。 划分训练集、测试集 myDatas.data,myDatas.target, #load_iris的原始数据集 test_size = 0.3, random_state = 7 ,找一个最合适的学习率 #设几个不同学习率的列表,后面来遍历它,看哪个学习率下分类精确度最高,就用哪个学习率代回模型重新建模 learning_rate=[0.0001,0.001,0.1,0.2,0.3 ] #这次使用交叉验证(交替充份使用有限数据)划分数据集 #实例化交叉验证类 kfold = StratifiedKFold(n_splits=2,shuffle=True,random_state=7)

    2K20发布于 2019-08-08
领券