首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏token的技术分享

    基于.NET8AI模型管理

    AIDotNet API AIDotNet API 是一款强大的人工智能模型管理系统,其主要目的是为了实现多种AI模型的统一管理和使用。 通过AIDotNet API,用户可以轻松地管理和使用众多AI模型,而且AIDotNet API兼容OpenAI的接口格式,使得使用更加方便。 此外,AIDotNet API还支持多种AI模型,包括OpenAI、星火大模型、Claudia、智谱AI、Ollama、通义千问(阿里云)、AzureOpenAI以及腾讯混元大模型,满足了用户对各种AI 基于.NET Core 8实现使用EntityFrameworkCore对于数据库操作。基于MiniApis提供WebAPI服务。 ) 星火大模型(支持function) Claudia 智谱AI Ollama 通义千问(阿里云) AzureOpenAI(支持function) 腾讯混元大模型 支持数据库 SqlServer 配置类型

    35910编辑于 2024-05-28
  • 来自专栏C++开发学习交流

    AI模型AI模型部署概述

    AI模型部署方法 在AI深度学习模型的训练中,一般会用Python语言实现,原因是其灵活、可读性强。但在AI模型实际部署中,主要会用到C++,原因在于其语言自身的高效性。 AI模型部署框架 模型部署常见的推理框架有:ONNX、NCNN、OpenVINO、 TensorRT、Mediapipe。 OpenVINO在模型部署前,首先会对模型进行优化,模型优化器会对模型的拓扑结构进行优化,去掉不需要的层,对相同的运算进行融合、合并以加快运算效率,减少内存拷贝;FP16、INT8量化也可以在保证精度损失很小的前提下减小模型体积 AI模型部署平台 AI 模型部署是将训练好的 AI 模型应用到实际场景中的过程。 以下是一些常见的 AI 模型部署平台: 云端部署 云端部署是最流行的 AI 模型部署方式之一,通常使用云计算平台来托管模型和处理请求。

    1.8K10编辑于 2024-07-24
  • 来自专栏运维开发故事

    探索AI+k8s:如何使用Deepseek大模型增强k8s-dashboard

    二、k8m介绍 k8m 是一款集 AI 与 Kubernetes 于一体的轻量级控制台工具,专为简化集群管理设计。 基于 AMIS 构建,并通过 kom 作为 Kubernetes API 客户端,k8m 内置了 Qwen2.5-Coder-7B 模型交互能力,同时支持接入您自己的私有化大模型,比如deepseek模型 OPENAI_API_URL "" 大模型的 API URL OPENAI_MODEL Qwen/Qwen2.5-7B-Instruct 大模型的默认模型名称,如需DeepSeek,请设置为deepseek-ai 4.2 Event信息AI问诊 在 Event 页面,k8m 内置了 AI 问诊功能,可智能分析异常事件,并提供详细的解释。点击事件前的“AI大脑”按钮,稍等片刻即可查看诊断结果,快速定位问题原因。 AI诊断报告呈上,有没有感觉很酷~ 4.4 AI智检 智检功能主要是引用了k8s_gpt工具中预置的规则使用大模型,进行集群的智能巡检,目前平台支持集群,节点,部署,有状态集,容器组,svc,ingress

    74810编辑于 2025-03-27
  • 来自专栏Python与算法之美

    8模型的训练

    根据问题特点选择适当的估计器estimater模型: 分类(SVC,KNN,LR,NaiveBayes,...) 回归(Lasso,ElasticNet,SVR,...) 一,分类模型的训练 ? ? ? ? ? ? ? ? ? 二,回归模型的训练 ? ? ? ? ? ? ? ? 三,聚类模型的训练 KMeans算法的基本思想如下: 随机选择K个点作为初始质心 While 簇发生变化或小于最大迭代次数: 将每个点指派到最近的质心,形成K个簇 重新计算每个簇的质心 ? 四,降维模型的训练 PCA主成分分析(Principal Components Analysis)是最常使用的降维算法,其基本思想如下: 将原先的n个特征用数目更少的m个特征取代,新特征是旧特征的线性组合 可以结合FeatureUnion 和 Pipeline 来创造出更加复杂的模型。 ?

    82031发布于 2020-07-17
  • 来自专栏MavenTalk

    8家国产AI模型开放使用,人手一个大模型的时代来临

    之前一直处于需要内测申请才能体验的国产AI模型们终于开放使用,对大众来说是一个好事,对大模型也是个利好,不公测就无法接受市场的检验,每家都是王婆卖瓜,自说自夸,到底好不好,观众说了算。 什么是大模型 先做个扫盲,AI模型是“人工智能预训练大模型”的简称。语言模型是一种人工智能模型,它被训练成理解和生成人类语言。 这8家分别是谁 百度(文心一言) 抖音(云雀大模型) 智谱AI(GLM大模型) 中科院(紫东太初大模型) 百川智能(百川大模型) 商汤(日日新大模型) MiniMax(ABAB大模型) 上海人工智能实验室 至于这8家的AI模型的能力如何,交给你来评判吧。不过至今为止,依旧是无人能挑战ChatGPT的霸主地位。 祝你早日用上AI模型,帮助自己提升工作、生活、学习效率。 —扩 展 阅 读— 大模型开源,创业者又站在了同一起跑线 WPS Office AI实战总结,智能化办公时代已来 大胆预言,正在发生或即将发生的AI模型应用 走访数十位企业中高层后,这些事你必须得明白

    3K40编辑于 2023-09-06
  • 来自专栏开源心路

    AI模型实战

    背景 通过示例梳理AI模型训练流程,示例比较简单,方便演示。 流程 机器学习实战步骤 定义问题 数据收集和预处理 选择算法并建立模型 训练模型 模型评估和优化 示例 定义问题 根据公开数据集预测加州房价分布 数据收集 import pandas as pd df_housing.drop("median_house_value",axis = 1) #构建特征集X y = df_housing.median_house_value #构建标签集y 选择算法并建立模型 #导入线性回归算法模型 model = LinearRegression() #使用线性回归算法 model.fit(X_train, y_train) #用训练集数据,训练机器,拟合函数,确定参数 211157.06335417 218581.64298574 465317.31295563 ... 201751.23969631 160873.51846958 138847.26913352] 模型评估

    33710编辑于 2023-06-30
  • 智谱AI开源GLM模型8倍加速推理与全球布局

    智谱AI的开源实力展示:极速GLM模型与潜在IPO前的全球扩张中国北京 – 2025年4月15日 – 作为一项彰显其技术实力和全球雄心的战略举措,并为潜在的未来IPO铺平道路,中国人工智能公司智谱AI宣布全面开源其下一代通用语言模型 此次发布包括先进的GLM-4系列和突破性的GLM-Z1推理模型,这些模型拥有前所未有的推理速度,并推出了专用的国际域名Z.ai。 该模型标志着向更自主的AI代理迈出了一步,它能够主动搜索互联网、使用工具、进行深度分析和自我验证信息,以处理复杂的开放式查询——这是超越纯反应式AI的重要一步,也证明了智谱AI的前沿研究水平。 考虑到AI社区的不同需求,智谱AI还开源了GLM-4和GLM-Z1模型的较小参数版本(9B)。 对于企业客户,智谱AI继续提供其强大的模型即服务(MaaS)平台,该平台现已集成新开源的基础模型和推理模型

    1.2K180编辑于 2026-03-30
  • 来自专栏服务端技术杂谈

    AI Agent:模型->工具->结果->模型

    Reddit上有人说,AI Agent就是:模型->工具->结果->模型。 从程序员角度来说,就是拼接参数json,调用LLM,处理返回值json。 不需要用什么复杂的框架,基本上只需要串联: 用户输入目标Prompt->将提示词传递给LLM->模型决定下一步->需要工具(API调用、爬取网页、操作API)执行->将结果反馈给模型进行下一步->直到任务完成 即:模型 → 工具 → 结果 → 模型 关于记忆,先用短期记忆,比如最近几条上下文消息。 如果需要跨会话记忆,可以从持久存储获取,比如向量数据库。

    13110编辑于 2026-03-11
  • 使用Spring AI调用AI模型

    简介Spring AI是Spring框架对人工智能和机器学习的支持模块,它提供了一套简单易用的API来集成各种AI服务和模型。 主要功能集成主流AI模型服务(如OpenAI、Azure、 Baidu千帆等)提供统一的API接口支持提示词工程内置向量存储功能支持文本嵌入和文本生成核心概念AI Client统一的客户端接口,用于调用 代码助手 代码解读复制代码spring.ai.openai.api-key=youkeyspring.ai.openai.base-url=https://api.deepseek.comspring.ai.openai.chat.options.model 对接阿里大模型Spring AI Alibaba 开源项目基于 Spring AI 构建,是阿里云通义系列模型及服务在 Java AI 应用开发领域的最佳实践,提供高层次的 AI API 抽象与云原生基础设施集成方案 ,帮助开发者快速构建 AI 应用。

    1.4K10编辑于 2025-03-27
  • 来自专栏量子位

    8B模型奥数成绩比肩GPT-4!上海AI Lab出品

    只要1/200的参数,就能让大模型拥有和GPT-4一样的数学能力? 来自复旦和上海AI实验室的研究团队,刚刚研发出了具有超强数学能力的模型。 就此又有网友表示,MCTSr能用极少的参数实现相同的效果,加上有时候训练收益随规模递减,表明架构才是当前AI的瓶颈,而不是运算。 这样的趋势也让人想起了AI算力霸主英伟达,开始思考规模化是不是不那么重要了,会不会利空老黄呢? 所以,MCTSr具体运用了什么样的方法呢? 名字中没有体现的,是蒙特卡洛与大模型的结合,本项目当中使用的是Llama 3-8B,同时MCTSr还引入了自我修正和自我评估的迭代过程。 从下表中可以看出,随着自我优化轮数是增多,模型取得的准确率也在增加,经过8轮之后,在GSM-8K上已经达到了96.66%。

    28210编辑于 2024-06-18
  • 来自专栏量子位

    AI的大模型时代 ≠ 只有大模型AI时代

    从这个规律来看,大语言模型(简称LLM)出现后虽然霸占了所有与AI相关的关键词,吸引了所有人的注意力,但这并不代表“LLM之前无AI”。 所以,AI不是只有大模型AI的大模型时代也 ≠ 只有大模型AI时代。 成熟的AI,早就已经上岗了 或许你还不敢相信,现在哪怕小小的快递背后,都已经有AI技术在加持了。 它可同时支持INT8和BF16数据类型,且BF16相较于FP32计算性能更优。 有了AMX指令集加持,性能比前一代至强®️ 可扩展处理器内置的矢量神经网络指令集VNNI提升达8倍,甚至更高。 对于参数量为70亿的较小模型BLOOMZ-7B,在Gaudi®️2的单设备时延约为第一代Gaudi®️ 的37.21%;而当设备数量都增加为8后,这一百分比进一步下降至约24.33%。 更多《英特尔平台上的行业AI实战与大模型优化》相关内容,可扫描下方海报中的二维码获取。点击原文链接,阅读英特尔《最“in”大模型》专栏的所有文章。 — 完 —

    64910编辑于 2023-09-27
  • 来自专栏csico

    K8s网络模型

    Docker网络模型 容器 容器不是模拟一个完整的操作系统,而是对进程进行隔离,对容器里的进程来说它接触到的各种资源都是独享的,比虚拟机启动快、占用资源少。 但是容器重启后又恢复原值,若想永久的修改可通过/etc/docker/daemon.conf里制定dns,/etc/hosts记录容器的ip,/etc/hostname记录容器的名称 Calico网络模型 K8s网络模型 K8s术语 K8S 是一个用于容器集群的分布式系统架构。 K8s网络 K8s网络包括CNI、Service、Ingress、DNS 在K8s网络模型中,每个节点上的容器都有自己独立的IP段,节点之间的IP段不能重复,而节点也需要具备路由能力,使从本节点Pod里出来的流量可以根据目的 K8s主机内网络模型 K8s采用的是veth pair+bridge的模式,veth pair将容器与主机的网络协议栈连接起来,可以使pod之间通信。

    2.5K32发布于 2021-09-02
  • 来自专栏Java编程技术

    K8s网络模型

    每个Pod自己看到的自己的ip和其他Pod看到的一致 k8s网络模型设计基础原则:每个Pod都拥有一个独立的 IP地址,而且 假定所有 Pod 都在一个可以直接连通的、扁平的网络空间中 。 由于 Kubemetes 的网络模型假设 Pod 之间访问时使用的是对方 Pod 的实际地址,所以一个 Pod 内部的应用程序看到的自己的 IP 地址和端口与集群内其他 Pod 看到的一样。 其实是使用Docker的一种网络模型:–net=container container模式指定新创建的Docker容器和已经存在的一个容器共享一个网络命名空间,而不是和宿主机共享。 网络模型需要每个pod必须通过ip地址可以进行访问,每个pod的ip地址总是对网络中的其他pod可见,并且每个pod看待自己的ip与别的pod看待的是一样的(虽然他没规定如何实现),下面我们看不同Node 24 = 16,777,216(一千多万),一般每个 VNI 对应一个租户,也就是说使用 vxlan 搭建的公有云可以理论上可以支撑千万级别的租户 Tunnel:隧道是一个逻辑上的概念,在 vxlan 模型中并没有具体的物理实体想对应

    4.2K24发布于 2019-04-18
  • 来自专栏云云众生s

    私有 AI 模型已死,私有 AI 模型万岁

    私有 AI 模型已死,私有 AI 模型万岁 翻译自 Proprietary AI Models Are Dead. Long Live Proprietary AI Models 。 因此,私有模型已死。 然后是谷歌 I/O 2023 。 Google Bard ,一个基于自己的专有数据集的生成式 AI 搜索引擎,受到好评如潮。引用最多的功能是它能够将实时数据合并到其模型中。 生成式 AI 成功的代价 事实证明,访问实时数据来构建模型是昂贵的。谷歌花费数十亿美元来构建基础设施,以实时索引网络以构建他们的生成模型,你可以打赌这将是私有的。 基础 AI 模型的未来 那么,这是否意味着每个生成式 AI 用例都需要一个基于私有实时数据构建的基础模型?否,但还有其他原因需要私有的基础模型: 私有的第一方数据集。 希望构建生成式 AI 的企业可能需要依赖大公司的基础模型,这些公司拥有支票簿来维护自己的实时数据基础设施和其他用例的开源基础模型。 企业所依赖的专有数据集也将越来越实时。

    35210编辑于 2024-03-27
  • 来自专栏云云众生s

    AI模型组合指南

    考虑一款旨在识别和分类野生动物照片的 AI 驱动的图像识别应用程序。您上传一张远足时拍摄的照片,几分钟后,该应用程序不仅识别出照片中的动物,还提供了有关其物种、栖息地和保护状态的详细信息。 这种分层方法提供了细致入微的分析,超出了单个 AI 模型的能力。 什么是模型组合? 从本质上讲,模型组合是一种机器学习策略,它结合了多个模型来解决一个复杂的难题,而单个模型无法轻松解决。 Boosting:顺序训练模型,其中每个模型都尝试纠正前一个模型所犯的错误。 Stacking:训练多个模型,然后使用一个更好的模型,该模型利用每个基础模型的优势来提高整体性能并结合它们的预测。 容器化:使用 容器部署 AI 模型可以帮助管理每个模型的依赖项和环境。容器编排工具(如 Kubernetes)可以帮助管理容器化模型的部署、扩展和网络。 但是,如上例所示,BentoML 和 BentoCloud 等平台可以通过允许开发人员高效地打包、部署和扩展多模型服务,帮助开发人员构建多个模型AI 应用程序。

    56710编辑于 2024-05-19
  • 来自专栏司钰秘籍

    AI模型学习

    通过不断优化模型结构和算法,AI模型学习能够不断提升模型的准确性和效率,为人类生活和工作带来更多便利。 AI模型学习的理论基础 数学基础: 线性代数:AI模型中大量使用向量和矩阵运算,如矩阵乘法、向量点积等,用于表示和操作数据。 8. 迁移学习:利用已有的预训练模型,在新的任务上进行微调,加快训练过程。 9. 并行计算:使用多线程、多进程或分布式计算框架,加速模型的训练。 10. AI模型在特定领域的应用 在自然语言处理领域,AI模型如 GPT-3 被广泛应用于文本生成、机器翻译、问答系统等。 此外,模型的性能也受到计算资源、数据质量和算法优化等因素的影响 AI模型学习的伦理与社会影响 AI模型学习确实带来了一些伦理和社会问题,我们需要认真对待: 1.

    65610编辑于 2024-04-04
  • AI情绪预测模型

    核心代码实现 3.1 数据定义与特征映射模块 # -*- coding: utf-8 -*- """ 情绪预测模型 - 核心模块 基于多维度特征的九分类情绪预测系统 """ import numpy phys_pattern: min_val, max_val = phys_pattern["skin_temperature"] weights[idx, 8] min_val, max_val = phys_pattern["skin_temperature"] actual_val = features[8] one_hot[np.arange(len(y_batch)), y_batch] = 1 loss = -np.sum(one_hot * np.log(probs + 1e-8) 未来的改进可以引入更多的解释性AI技术,如LIME(局部可解释模型-agnostic解释)和SHAP(SHapley Additive exPlanations),为用户提供详细的预测依据和置信度评估。

    21510编辑于 2026-01-20
  • 来自专栏小洁叫你mysql

    AI模型】训练Al大模型

    模型超越AI 目前所指的大模型,是“大规模深度学习模型”的简称,指具有大量参数和复杂结构的机器学习模型,可以处理大规模的数据和复杂的问题,多应用于自然语言处理、计算机视觉、语音识别等领域。 本文将探讨大模型的概念、训练技术和应用领域,以及与大模型相关的挑战和未来发展方向。 大模型是指具有庞大参数数量的机器学习模型。传统的机器学习模型通常只有几百或几千个参数,而大模型则可能拥有数亿或数十亿个参数。 这种巨大的模型规模赋予了大模型更强的表达能力和预测能力,可以处理更为复杂的任务和数据。 更智能的模型压缩技术:模型压缩和加速技术将继续发展,以减小大模型的计算和存储开销。 更好的计算平台支持:为了支持训练和部署大模型,计算平台将继续改进,提供更强大的计算资源和工具。

    1.5K30编辑于 2023-10-10
  • 来自专栏人工智能领域

    AI模型学习

    AI模型学习 在当前技术环境下,AI模型学习不仅要求研究者具备深厚的数学基础和编程能力,还需要对特定领域的业务场景有深入的了解。 通过不断优化模型结构和算法,AI模型学习能够不断提升模型的准确性和效率,为人类生活和工作带来更多便利。 方向一:AI模型学习的理论基础 AI模型学习的理论基础涉及深度学习、神经网络、优化算法等多个方面。 ———————————————— 方向三:AI模型在特定领域的应用 AI模型的训练与优化是深度学习领域中至关重要的一部分。 ———————————————— 方向四:AI模型学习的伦理与社会影响 AI模型学习的伦理与社会影响是一个备受关注的话题,以下是一些关于这个方向的重要内容: 数据隐私:AI模型需要大量的数据来训练

    64110编辑于 2024-12-18
  • 来自专栏AI系统

    AI系统】模型剪枝

    本文将介绍模型剪枝的概念、方法和流程,这是一种通过移除神经网络中的冗余或不重要参数来减小模型规模和提高效率的模型压缩技术。 剪枝不仅可以减少模型的存储和计算需求,还能在保持模型性能的同时提高模型的泛化能力。 模型压缩将一个庞大而复杂的预训练模型转化为一个更精简的小模型,尽可能在不牺牲模型精确度的情况下,减少模型的存储和计算负载,从而使得模型更高效在各种硬件平台上部署和运行。 剪枝定义模型剪枝也叫模型稀疏化,不同于模型量化通过减少表示权重参数所需的比特数来压缩模型,它直接删除模型中 “不重要” 的权重,从而学习到一个参数更加稀疏化的神经网络,同时要尽可能的保持模型精度,下图展示了两种方法的区别 接下来,基准模型会在尽可能不损失精度的情况下被剪枝,以缩小模型规模、减小模型对硬件资源的需求,从而加速模型计算。

    98810编辑于 2024-12-05
领券