首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Reck Zhang

    Java 10 - 内存模型

    内存模型 主存储器与工作存储器 主存储器 方法区(Method Area) 方法区用于存储类的信息, 常量, 静态变量, 即时编译器编译后的代码. 栈(Java Virtual Machine Stacks) 代表着Java方法执行的内存模型, 每个方法执行时都会创建一个栈帧来存储方法的变量表, 操作数栈, 动态链接方法, 返回值, 返回地址等信息

    37720发布于 2021-08-11
  • 来自专栏Python与算法之美

    10模型的优化

    搜索超参数空间以优化超参数需要明确以下方面: 估计器 超参数空间 交叉验证方案 打分函数 搜寻或采样方法(网格搜索法或随机搜索法) 优化模型的常见方法包括 网格搜索法,随机搜索法,模型特定交叉验证, 三, 模型特定交叉验证 一些特定的模型,sklearn构建了一些内部含有交叉验证优化机制的估计器。 它们主要是在linear_model模块。 四, 信息准则优化 模型选择主要由两个思路。 解释性框架:好的模型应该是最能解释现有数据的模型。可以用似然函数来度量模型对数据集描述能力。 预测性框架:好的模型应该是最能预测结果的模型。 通常模型参数越多越复杂,越容易出现过拟合。 所以,模型选择问题在模型复杂度与模型对数据集描述能力(即似然函数)之间寻求最佳平衡。 AIC(赤池信息准则)和BIC(贝叶斯信息准则)对模型的选择提供了一种判据。 AIC信息准则选择AIC最大的模型。 BIC信息准则选择BIC最大的模型

    77421发布于 2020-07-17
  • 来自专栏全栈程序员必看

    Django(10)ORM模型介绍

    所以我们采用ORM模型 ORM模型介绍 orm全称Object Relational Mapping,中文叫做对象关系映射,通过ORM我们可以通过类的方式去操作数据库,而不用再写原生的SQL语句。 通过把表映射成类,把行作实例,把字段作为属性,ORM在执行对象操作的时候最终还是会把对应的操作转换为数据库原生语句 ORM的优点 易用性:使用ORM做数据库的开发可以有效的减少重复SQL语句的概率,写出来的模型也更加直观 ORM的实现过程 (1)配置目标数据库,在setting.py中设置配置属性 (2)构建虚拟对象数据库,在App的model.py文件中以类的形式定义模型 (3)通过模型在目标数据库中创建对象的数据表 (4)在视图函数中使用模型来实现目标数据库的读写操作 发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/166174.html原文链接:https://javaforall.cn

    36620编辑于 2022-09-20
  • 来自专栏paddle深度学习

    paddle深度学习10 模型准备

    在深度学习中,模型训练是一个迭代的过程,通过不断调整模型参数,使其在给定任务上的表现逐渐提升。本节将详细介绍模型训练的基本流程,包括模型定义、损失函数和优化器的选择,以及训练循环的各个步骤。 【定义模型】在PaddlePaddle中,模型通常通过继承 paddle.nn.Layer 类来定义。可以在这个类中定义模型的结构,比如全连接层、卷积层、循环神经网络层等。 ,通常包括以下几个步骤:1)前向传播将输入数据传入模型,得到模型的预测输出。 y_pred = model(x) # x是输入数据,y_pred是模型预测输出2)计算损失使用损失函数计算模型预测值与真实值之间的差距。 模型评估指标在训练过程中,除了损失函数外,我们还需要使用一些评估指标来衡量模型的性能。

    23810编辑于 2025-01-16
  • 来自专栏全栈程序员必看

    VggNet10模型的cifar10深度学习训练

    录 一:数据准备: 二:VGG模型 三:代码部分 1.input_data.py 2.VGG.py 3.tools.py 4.train_and_val.py ---- 一:数据准备: 先放些链接 (这部分是VGG区别与其他模型的一个核心部分,在代码中也是主要根据这部分来构建模型的) 这里对cifar10的数据集进行训练,采用D,16层的一个模型(13个由卷积+池化和3个全连接层组成),直接对照上面部分 三个FC全连接层,其中在第三个全连接层部分,输出的节点(nodes)=n_classes,也就是分类有多少个类型,这里的训练集是cifar10.所以后面给出的n_classes=10. 其实到这里,这个模型基本上是已经创建完毕了。后续的数据输入,和训练部分,[catsVSdogs]猫狗大战代码注释讲解_1大同小异。 \\data\\cifar-10-batches-bin\\' n_test = 10000 images, labels = input_data.read_cifar10

    69120编辑于 2022-09-27
  • 来自专栏技术趋势

    windows10搭建llama大模型

    LLAMA介绍 llama全称:Large Language Model Meta AI是由meta(原facebook)开源的一个聊天对话大模型。 根据参数规模,Meta提供了70亿、130亿、330亿和650亿四种不同参数规模的LLaMA模型,并使用20种语言进行了训练。与现有最佳的大型语言模型相比,LLaMA模型在性能上具有竞争力。 ~all~sobaiduend~default-1-106591160-null-null.142^v88^control,239^v2^insert_chatgpt&utm_term=windows10% , 一个是原版的LLaMA模型, 一个是扩充了中文的模型, 后续会进行一个合并模型的操作 原版模型下载地址(要代理):https://ipfs.io/ipfs/Qmb9y5GCkTG7ZzbBWMu2BXwMkzyCKcUjtEKPpgdZ7GEFKm /zh-models/7B/ggml-model-q4_0.bin 2 生成量化模型文件路径为zh-models/7B/ggml-model-q4_0.bin 运行模型 cd D:\ai\llama

    1.5K30编辑于 2023-09-12
  • 来自专栏机器学习/数据可视化

    机器学习分类模型10大评价指标

    公众号:尤而小屋作者:Peter编辑:Peter大家好,我是Peter~机器学习分类模型的评价指标是在衡量模型在未知数据集上的性能表现,通常基于混淆矩阵和相关的评价指标。 样本的真实类别是负类,但模型将其识别为正类。True Negative(TN):真负类。样本的真实类别是负类,并且模型将其识别为负类。 它表示在模型识别为正类的样本中,真正为正类的样本所占的比例。 ,精确率越高,表示模型越好。 ,也就是说精确率是模型在某个类别上的判断。

    1.5K10编辑于 2023-10-13
  • 来自专栏喔家ArchiSelf

    模型应用设计的10个思考

    基于大模型的应用设计需要聚焦于所解决的问题,在自然语言处理领域,大模型本身在一定程度上只是将各种NLP任务统一成了sequence 到 sequence 的模型模型优先,持续迭代 如果模型能做到的是事情,就不要写代码;模型会变得更好,但代码不会。 在当今的时代,模型的价值日益凸显。与传统的编程方法不同,现在的开发思路更倾向于“模型优先”。 这种权衡精准性与交互消歧的策略,无疑是基于大模型应用设计中的重要思维方式。 3 代码用于语法和过程,模型用于语义和意图 在现代编程领域,代码和模型之间的分工变得越来越明确。 9.凡有控制,皆有模型 模型不仅是一种工具,它也可以成为我们对抗自身错误的利器。很多时候,我们容易将LLM(大语言模型)的运作想象成一个“头脑”的内部过程。 因此,只要我们对模型进行适当的控制和引导,它就能成为我们工作中得力的“助手”。而这种控制的基础,就是我们对模型内部机制和特点的深入了解和掌握。 10.

    61310编辑于 2023-12-04
  • 来自专栏机器学习/数据可视化

    10招解决机器学习模型过拟合

    公众号:尤而小屋作者:Peter编辑:Peter大家好,我是Peter~本文介绍机器学习/深度学习建模过程防止模型过拟合的10种有效方法:增加训练数据集交叉验证正则化合适的特征选择降低模型复杂度集成方法早停法 权衡偏差和方差: 模型的偏差(bias)指模型对真实关系的错误假设,而方差(variance)指模型对训练数据的小扰动过于敏感。过拟合的模型通常具有低偏差但高方差。 相较于单一复杂模型,这些基本模型的复杂度较低,从而降低了过拟合的风险。减少模型偏差: 集成方法可以通过组合多个模型的预测,从而减少整体模型的偏差。 即使某些基本模型可能出现错误,其他模型也可能捕捉到正确的模式,从而减少整体模型的偏差,提高模型的准确性。抵消模型的错误: 不同的模型可能会在不同的数据子集上产生错误。 方法10:监控训练过程监控模型训练过程是防止过拟合的重要策略之一,它能够帮助发现并处理过拟合的迹象,从而采取适当的措施来改善模型的性能。

    2.3K41编辑于 2023-08-18
  • 来自专栏喔家ArchiSelf

    模型应用的10个架构挑战

    ChatGPT 从正式发布到拥有1亿用户仅仅用了5天的时间,基于大型语言模型(简称大模型,或基础模型)的应用给软件行业乃至整个社会带来巨大的影响。 基于笔者近年来的探索与实践,这里列举了面向大模型应用系统架构设计的10个挑战。 1. 生产环境的挑战——推理框架的选择 对于大模型应用而言,生成环境的运行时是一个推理架构。 大模型应用需要一个针对产品级大型语言模型的高效管理系统。 尽管我们已经有了一些探索,例如《大模型应用的10个架构模式》(https://mp.weixin.qq.com/s? 虽然大模型在人工智能领域具有广泛的应用前景,但并不是所有场景都适合使用大模型。在设计系统架构时,我们需要根据具体需求和技术挑战来判断是否需要引入大模型,以确保系统的高效性和可靠性。 10.

    1.2K10编辑于 2024-12-24
  • 来自专栏喔家ArchiSelf

    机器学习模型性能的10个指标

    那么在使用ML解决相对简单问题的时候,如何评估一个机器学习模型的性能呢?这里给出了10个相对常用的评价指标,希望对产研同学有所帮助。 1. 假阳性是指模型错误地将负类实例预测为正类实例的情况,而假阴性则是指模型错误地将正类实例预测为负类实例的情况。在评估模型性能时,区分假阳性和假阴性是非常重要的,因为它们对模型的性能有着不同的影响。 通过观察和比较不同模型的ROC-AUC得分,我们可以更加全面地了解模型的性能,并选择出具有更好辨别能力的模型。 6. 它计算的是模型预测为真阴性的实例占实际总阴性的比例。在评估模型时,我们往往关注模型对于正样本的识别能力,但同样重要的是模型在识别负样本方面的表现。 因此,交叉熵损失是评估分类模型性能的重要指标之一,它能够帮助我们进一步了解模型的预测准确性以及是否需要进一步优化模型的参数和结构。 10.

    5.8K20编辑于 2023-12-28
  • yolov10的onnx模型加密方法保护自己模型和版权

    【官方框架地址】 https://github.com/THU-MIG/yolov10 【算法介绍】 Yolov10是一种先进的对象检测模型,基于深度学习技术,广泛应用于计算机视觉任务。 对 Yolov10 的 ONNX 模型进行加密,主要是为了保护模型的机密性和完整性,防止未经授权的访问和使用。常见的加密方法包括使用密码加密、哈希函数、数字签名等技术。 需要注意的是,对 Yolov10的 ONNX 模型进行加密可能会对模型的性能产生一定的影响。因此,在选择加密方法时,需要根据实际需求和场景进行权衡,尽可能地平衡安全性和性能的需求。 总之,对 Yolov10 的 ONNX 模型进行加密是一个重要的安全措施,可以有效地保护模型的机密性和完整性,防止未经授权的访问和使用。 【效果展示】 加密后缀为yolov10.enc您可以改成任何后缀不影响模型 【实现部分代码】 #include "YOlov10Encry.h" #include <iostream> #include

    45910编辑于 2025-07-21
  • 来自专栏算法进阶

    深度学习的Top10模型

    欢迎评论区留言讨论~ 以下是我心目中的深度学习top10模型,它们在创新性、应用价值和影响力方面都具有重要的地位。 model.fit(x_train, y_train, epochs=10, batch_size=32) # 测试模型 test_loss, test_acc = model.evaluate(x_test MaxPooling2D, Flatten, Dense # 设置超参数 input_shape = (28, 28, 1) # 假设输入图像是28x28像素的灰度图像 num_classes = 10 # 假设有10个类别 # 创建CNN模型 model = Sequential() # 添加卷积层,32个3x3的卷积核,使用ReLU激活函数 model.add(Conv2D(32, (3, model.add(Flatten()) # 添加全连接层,128个神经元,使用ReLU激活函数 model.add(Dense(128, activation='relu')) # 添加输出层,10

    5.2K12编辑于 2024-06-26
  • 来自专栏喔家ArchiSelf

    模型应用的10种架构模式

    2.大模型代理模式 想象一个生态系统,其中多个专门针对特定任务的生成式AI模型各自作为其领域内的专家,并行工作以处理查询。 这些代理可能是较小的语言模型,它们已经接受过特定任务的训练,或者是具有特定功能的通用模型,如GPT、Llama、上下文提示和函数调用。 10. 双重安全模式 围绕大型语言模型(LLM)的核心安全性至少包含两个关键组件:一是用户组件,我们将其称为用户Proxy代理;二是防火墙,它为模型提供了保护层。 防火墙则保护模型及其所使用的基础设施。尽管我们对人们如何操纵模型以揭示其潜在的训练数据、潜在功能以及当今恶意行为知之甚少,但我们知道这些强大的模型是脆弱的。 随着我们们继续探索和创新,还会涌现出很多新的架构模式,而且这里的10个架构模式以及新涌现的架构模式可能成为人工智能服务的表现形态。

    5K11编辑于 2024-04-03
  • 使用python部署yolov10的onnx模型

    部分实现代码: parser = argparse.ArgumentParser() parser.add_argument("--model", type=str, default="yolov10n.onnx 0.5, help="NMS IoU threshold") args = parser.parse_args() # Create an instance of the YOLOv10 "Output", output_image) # Wait for a key press to exit cv2.waitKey(0) 视频演示: 使用python部署yolov10 winform最快检测速度,yolox+deepsort+pyqt5实现目标追踪结果演示,使用纯opencv部署yolov8目标检测模型onnx,AI建模怎么事? 我用5秒钟生成的热巴模型,什么水平?

    27200编辑于 2025-07-20
  • 来自专栏深度学习与python

    模型应用的 10 种架构模式

    作为一位老码农,我在这里整理总结了一些针对大模型应用的设计方法和架构模式,试图应对和解决大模型应用实现中的一些挑战,如成本问题、延迟问题以及生成的不准确性等。 1. 大模型代理模式 想象一个生态系统,其中多个专门针对特定任务的生成式 AI 模型各自作为其领域内的专家,并行工作以处理查询。 10. 双重安全模式 围绕大型语言模型(LLM)的核心安全性至少包含两个关键组件:一是用户组件,我们将其称为用户 Proxy 代理;二是防火墙,它为模型提供了保护层。 防火墙则保护模型及其所使用的基础设施。尽管我们对人们如何操纵模型以揭示其潜在的训练数据、潜在功能以及当今恶意行为知之甚少,但我们知道这些强大的模型是脆弱的。 随着我们们继续探索和创新,还会涌现出很多新的架构模式,而且这里的 10 个架构模式以及新涌现的架构模式可能成为人工智能服务的表现形态。

    86610编辑于 2024-04-12
  • 来自专栏TechLead

    模型应用曙光 - 10X压缩技术

    拥有10+年AI领域研究经验、复旦机器人智能实验室成员,国家级大学生赛事评审专家,发表多篇SCI核心期刊学术论文,上亿营收AI产品研发负责人。 如何在不牺牲性能的情况下将大语言模型缩小十倍? 不用说,大多数消费设备(如手机、平板电脑、笔记本电脑)无法处理如此庞大的模型。但……如果我们可以让模型变小呢? 模型压缩 模型压缩旨在在不牺牲性能的前提下减少机器学习模型的大小。 量化——使用更低精度的数据类型表示模型 剪枝——从模型中删除不必要的组件 知识蒸馏——通过较大的模型训练较小的模型 _注意_:这些方法是相互独立的。 知识蒸馏 知识蒸馏是将知识从一个(较大的)教师模型传递到一个(较小的)学生模型。一种方法是通过教师模型生成预测,并使用这些预测来训练学生模型。 令人惊讶的是,训练结束时,学生模型在所有评估指标上都超过了教师模型! 接下来,我们可以在独立的验证集上评估模型,即未用于训练模型参数或调整超参数的数据。

    48510编辑于 2024-09-24
  • 来自专栏计算机视觉战队

    ViT杀疯了,10+视觉Transformer模型详解

    课程亮点 全面的内容讲解:涵盖当今应用和科研领域最热门的Transformer,包括10+Transformer模型串讲+应用案例。 ▶短期内对一个领域有全面且系统的认识,大大节省学习时间 ▶认识一群拥有同样兴趣的人、相互交流、相互学习 助你成为行业TOP10%的工程师 对课程有意向的同学 扫描二维码咨询 下面对CV部分的内容详细做了介绍 DeiT/Mobile-Transformer/Efficient   Transformer/SwinTransformer/Point Transformer/MTTR/MMT/Uniformer等10 助你成为行业TOP10%的工程师 对课程有意向的同学 扫描二维码咨询 适合人群 大学生 编程及深度学习基础良好,为了想进入AI行业发展 对于Transformer或联邦学习有浓厚兴趣,希望进行实践 AAAI、KDD、AISTATS、CHI等国际会议上发表过15篇以上论文 授课方式 基础知识讲解 前沿论文解读 该知识内容的实际应用 该知识的项目实战 该方向的知识延申及未来趋势讲解 助你成为行业TOP10%

    1.1K20编辑于 2022-07-12
  • 来自专栏对白的算法屋

    AI 大模型创业的 10 个灵魂拷问

    最近大模型创业十分火热, 身边很多朋友不是转做大模型,就是投身到大模型的创业浪潮中去了,下面给大家分享华为天才少年、现在是一名创业者的李博杰对于大模型创业的十个灵魂拷问,让我们一起来看看。 下面就这 10 个灵魂拷问,分享一些我自己的观点。 做不做基础大模型? 如果做基础大模型,需要上亿美金的前期投入,如何融到这么多资,如何招到靠谱的算法、数据和 infra 团队? 但这样的模型推理成本会很高,就像现在 GPT-4 读一篇论文要 10 美金,只有高净值客户和探索科学前沿的场景才消费得起。 推理性能优化的空间更大,因为 Transformer 的结构,很多场景下有效算力只有 10%~20%。如果做 batching,时延和带宽又会成为 trade-off。 第一,如果读一篇论文还是像 GPT-4 那样需要 10 美金,生成一段 7.5 分钟的视频还是像 Runway ML 一样需要 95 美金,大多数人就不可能用得起大模型

    63030编辑于 2023-09-01
  • cifar10数据集模型搭建与训练

    /cifar10/trainLabels.csv' test_csv_file = './cifar10/sampleSubmission.csv' train_folder = '. /cifar10/train/' test_folder = '. /cifar10/test' def parse_csv_file(filepath, folder):     """Parses csv files into (filename(path), label test_predict = model.predict_generator(test_generator,                                        workers = 10 /cifar10/submission.csv" generate_submissions(output_file, test_predict_class) # %%

    15800编辑于 2025-07-18
领券