首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    B站视频API接口_视频搜索接口

    Vue2.5打造简洁视频webapp项目api接口 此文档为非官方接口文档,无法保证接口有效性。 以下接口为本项目目前使用的接口(也可以直接看src/api/文件目录下的接口) 仿B站视频网站项目源码:进入项目源码仓库 了解项目更多内容请看:Vue2.5打造简洁视频webapp(近期停更。。。 分区号 视频排行榜模块 分区视频排行榜 https://api.bilibili.com/x/web-interface/ranking 参数 说明 rid 分区号 day 1:单日榜、3:三日榜、7

    3.3K20编辑于 2022-11-09
  • 来自专栏芯智讯

    电动汽车直流充电接口国标“ChaoJi”来了!

    “ChaoJi”直流充电接口技术由中电联、国家电网会同汽车、充电设备、连接器和电池等产业链上下游企业联合攻关,历经5年科学系统的研究、多轮次样机试制和实车验证,吸取了当前国际四大直流充电接口系统的优点, 改进了原有系统的缺陷,兼容各种区域性充电接口标准,还满足未来产业发展需求。 据介绍,与现有的GB/T 2015充电接口标准相比,Chaoji的充电即接口技术路线源于电动汽车大功率充电需求,包括充电连接组件、控制及导引电路、通信协议、充电系统安全、热管理等完整的传导充电系统解决方案 ,不仅充电接口体积更小、充电功率更大,还可满足电动汽车充电快捷、安全、兼容的要求。 国内首款7nm车规级芯片成功上车,性能接近骁龙8155!今年出货目标100万片! 华为强势回归,高通却成了最大输家? 联发科天玑9300成功流片:台积电3nm制程,预计2024年量产!

    2K90编辑于 2023-09-20
  • 来自专栏刷题笔记

    7-6 A-B

    点这里 7-6 A-B 本题要求你计算A−B。不过麻烦的是,A和B都是字符串 —— 即从字符串A中把字符串B所包含的字符全删掉,剩下的字符组成的就是字符串A−B。 输入格式: 输入在2行中先后给出字符串A和B。两字符串的长度都不超过10​4​​,并且保证每个字符串都是由可见的ASCII码和空白字符组成,最后以换行符结束。 输出格式: 在一行中打印出A−B的结果字符串。 输入样例: I love GPLT! It's a fun game! aeiou 输出样例: I lv GPLT! It's fn gm! cout << str << endl; // "This is a phrase." // 第(3)种用法 str.erase (str.begin()+5, str.end()-7)

    66720发布于 2019-11-08
  • 来自专栏TSINGSEE青犀视频

    国标视频云服务EasyGBS如何正确调阅实时录像接口

    EasyGBS国标视频云服务是基于国标GB28181协议的视频平台,可实现的视频功能包括视频直播、录像、语音对讲、云存储、告警、级联等,支持将接入的视频流进行全终端的分发,可分发的视频流包括RTSP、RTMP 今天我们来分享一下正确的操作流程:1)首先,在调阅实时录像接口前,先调阅开始直播的接口来获取stream id,如下图:2)获取到stream id后,即可开始调阅实时录像的接口:3)如上图所示,返回OK 代表开始录像,调用结束实时录像接口来将录像文件下载:4)添加ip:port,拼接到返回的DownloadURL地址前,下载MP4文件:5)最后即可正常返回。

    49030编辑于 2022-08-08
  • 来自专栏工程师看海

    手机系列:一文搞懂美标国标耳机接口区别

    早期的3.5mm耳机只有GND、左、右声道3个PIN,这种耳机接口简单,使用范围广,常见在电脑等大型设备音频接口上,这种接口有个显而易见的缺点,即:没有MIC,不能录音打电话。 在电脑上可以单独增加MIC接口,但是在手机这种集成度高的移动设备上,单独增加MIC接口非常占空间,显然不是个高性价比的方案,因此出现了集成MIC的耳机接口。 当时各厂商都是自由发挥,出现了五花八门的耳机接口,各家厂商的耳机接口又互不兼容,给消费者带来非常多的苦恼,天下苦杂耳机接口久矣。 于是,统一标准的耳机接口亟待出现。 后来就出现了OMTP(国标)和CTIA(美标),二者在链路上主要只有MIC和GND的区别。 科技的进步一直服务于用户的需求,为了解决国标、美标的兼容性问题,音频开关开始进入人们的视野,当前的手机通常都会加入音频开关,通路原理见下图,蓝、绿色曲线。

    2K20编辑于 2022-06-23
  • TransNormerLLM-7B WebDemo 部署

    TransNormerLLM-7B WebDemo 部署 环境准备 在autodl平台中租一个3090/4090等24G显存的显卡机器,如下图所示镜像选择PyTorch–>2.0.0–>3.8(ubuntu20.04 模型的介绍地址(魔塔社区): https://www.modelscope.cn/models/OpenNLPLab/TransNormerLLM-7B/summary 在 /root/autodl-tmp snapshot_download, AutoModel, AutoTokenizer import os model_dir = snapshot_download('OpenNLPLab/TransNormerLLM-7B chatbot powered by Self-LLM") # 定义模型路径 mode_name_or_path = '/root/autodl-tmp/OpenNLPLab/TransNormerLLM-7B , trust_remote_code=True, device_map="auto") return tokenizer, model # 加载TransNormer-4B-Chat

    23610编辑于 2025-07-17
  • TransNormerLLM-7B Lora 微调

    TransNormerLLM-7B Lora 微调 本节我们简要介绍如何基于 transformers、peft 等框架,对 TransNormerLLM-1B「备注:TransNormerLLM-358M /1B/7B的」 模型进行 Lora 微调。 input_ids, "attention_mask": attention_mask, "labels": labels } TransNormerLLM-7B tokenizer = AutoTokenizer.from_pretrained('/root/autodl-tmp/OpenNLPLab/TransNormerLLM-7B/', use_fast= /output/TransNormerLLM-7B-Lora", per_device_train_batch_size=4, gradient_accumulation_steps=4

    43810编辑于 2025-07-17
  • Qwen-7B-Chat WebDemo

    Qwen-7B-Chat WebDemo 环境准备 在autodl平台中租一个3090等24G显存的显卡机器,如下图所示镜像选择PyTorch–>2.0.0–>3.8(ubuntu20.04)–>11.8 AutoModel, AutoTokenizer from modelscope import GenerationConfig model_dir = snapshot_download('qwen/Qwen-7B-Chat cd Qwen git checkout 981c89b2a95676a4f98e94218c192c095bed5364 最后取消镜像加速,因为该加速可能对正常网络造成一定影响,避免对后续下载其他模型造成困扰 unset https_proxy 修改代码路径,将 /root/autodl-tmp/Qwen/web_demo.py中 13 行的模型更换为本地的/root/autodl-tmp/qwen/Qwen-7B-Chat

    37511编辑于 2025-07-17
  • 来自专栏喔家ArchiSelf

    7B?13B?175B?解读大模型的参数

    例如,13B-int8模型通常优于同一体系结构的7B-BF16模型。 2. 大模型参数对内存的需求 对于工程师而言,面对的是大模型训练或推理时会使用多少的内存资源。 例如,对于一个7B的模型而言,大体上,使用浮点精度需要28GB内存,使用BF16精度需要14GB内存,使用int8精度需要7GB内存。这个粗略的估计方式可以相应地应用到其他版本的模型。 GPU Size in GB是可用的 GPU 内存总量 举个实际的例子,假设使用的是 NVIDIA RTX 4090 GPU,它有24GB 的 VRAM,计算一下训练‘ Llama3 7B’模型所需的 GPU 数量,大约为 : GPU 的总数≈(7 * 18 * 1.25)/24,大约等于7 对于推理而言, 可以简化为训练阶段的1/8~1/9 , 当然,这些只是一般意义的粗略估计。 确定分布式训练的最佳批次大小(即前文提到的参数b)至关重要;b值过小可能增加通信开销,而过大则可能导致内存不足。 LLMOps的重要性日益凸显。

    32K27编辑于 2024-06-03
  • 来自专栏全栈程序员必看

    xplanner-0.7b7b 部署问题解决

    org.apache.commons.collections.map.LinkedMap 但是org.apache.commons.collections.map.LinkedMap实现了java.util.Map接口啊 INSERT INTO permission VALUES(6,5,’%’,’%’,0, 1); INSERT INTO permission VALUES(7,3,’-create.project’,

    38720发布于 2021-05-19
  • 来自专栏RTSP/RTMP直播相关

    国网B接口注册(REGISTER)接口描述和消息示例

    大家有没有注意到一个细节,但凡做GB28181平台的公司,基本上都会支持国网B接口,究其原因,二者在信令交互等方面,有着非常多的相似之处,我们也是在实现了GB28181设备接入模块后,开始关注GB35114 ,本文以注册接口为例,讲述下国网B接口注册注销流程,相关规范设计如下:注册接口描述注册属于数据接口,采用SIP标准协议,消息中URI的用户名应为下级平台的地址编码。 注册接口流程图片主要功能流程如下: a) F1:前端系统向平台发送注册请求。b) F2:平台发送 401 响应,提示注册需鉴权。 c) F3:前端系统携带鉴权信息,重新发送注册请求。 g) F7:当前端系统需暂停对外服务时,需发送注销消息;该消息具有和F3消息相同的Call-ID、From、To、Authorization 等头部取值;消息中建议携带 Logout-Reason 头字段 平台域名或IP地址",respnotallow="5924f86c43",algorithm=MD5Logout-Reason: "maintenance"Content-Length: 0以上是国网B接口相关技术背景和注册接口描述

    2.3K11编辑于 2022-10-24
  • 来自专栏dongfanger

    Java官方笔记7接口

    接口 接口只能包含:constants, method signatures(abstract), default methods, static methods, and nested types 方法体只存在于 :default methods and static methods 接口不能实例化,只能被类实现,或者被其他接口继承(接口可以多继承)。 实现接口 接口: public interface Relatable { // this (object calling isLargerThan()) // and other must ,那么子接口的默认方法有可能出现: 无声明,继承父接口的默认方法 声明,变为abstract method,实现类,必须实现该方法(也就是父类默认,但是子类不默认了) 声明并重写,以子类的默认方法为准 ,必须是实现该接口的类的实例。

    27430编辑于 2023-06-10
  • 来自专栏Java Web

    「MoreThanJava」Day 7接口详解

    接口为 Java 提供了多继承的一些优点,而没有缺点。 接口的概念 在 Java 程序设计语言中,接口不是类,而是对希望符合这个接口的类的一组需求。 接口的定义 在 Java 中使用 interface 关键字来定义接口接口是顶级的 "类",虽然关键字是 interface,但编译之后的字节码扩展名还是 .class。 因为接口是绝对抽象的,不允许实现..),但你可以定义一个类实现 (关键字 impelents) 接口,一旦你这么做了,你就可以构造这个 (实现接口的) 类的对象。 由于私有方法只能在接口本身的方法中使用,所以它们的用法很有限,只能作为接口中其他方法的辅助方法。 默认方法 在 Java 8 中,允许为接口方法提供一个默认的实现。 / 接口的定义 / 接口的实现 / 接口的属性; 接口的静态和私有方法 / 如何解决默认方法的冲突; 接口和工厂模式; 练习 练习 1:实现一个图形绘制工具 创建一个可以绘制不同形状的绘图工具,可以绘制圆形

    66830发布于 2020-08-17
  • Java Collection(7)——Iterable接口

    1.Iterator接口 1.1 Iterator接口和其他集合类的关系 Java集合类中,Iterable接口属于顶层接口,除Map接口外,其他都实现了Iterable接口,这意味着它们都可以重写和使用 Iterable接口中的方法 1.2 Iterable接口简介 在JDK1.7以前,Iterable接口内部只定义了iterator()方法。 然而在JDK1.8及以后,又新增了forEach()和spliterator()方法 1.2.1 iterator() 作用:iterator()方法用于返回一个Iterator对象,该对象是一个接口, integer += 1; System.out.println(integer); }); } 1.2.2 forEach()&foreach() (1)Iterable接口中的 remove()方法来删除元素,并且该删除操作是可以映射到集合本身的;但是foreach方法不行 1.2.3 spliterator()方法 作用:用于返回Spliterator对象,该对象是一个接口

    13010编辑于 2026-01-13
  • DeepSeek-7B-chat langchain 接入

    DeepSeek-7B-chat langchain 接入 这篇主要讲 DeepSeek-7B-chat 如何对接Langchain中 langchain.llms.base 的 LLM 模块,其他关于如何对接向量数据库和 pip install langchain==0.0.292 DeepSeek-7B-chat 接入 LangChain 为便捷构建 LLM 应用,我们需要基于本地部署的 DeepSeek-7B-chat ,自定义一个 LLM 类,将 DeepSeek-7B-chat 接入到 LangChain 框架中。 完成自定义 LLM 类之后,可以以完全一致的方式调用 LangChain 的接口,而无需考虑底层模型调用的不一致。 llm = DeepSeek_LLM('/root/autodl-tmp/deepseek-ai/deepseek-llm-7b-chat') llm('你好') 如下图所示:

    38010编辑于 2025-07-17
  • Qwen-7B-Chat Lora 微调

    Qwen-7B-Chat Lora 微调 概述 本节我们简要介绍如何基于 transformers、peft 等框架,对 Qwen-7B-Chat 模型进行 Lora 微调。 本节所讲述的代码脚本在同级目录 04-Qwen-7B-Chat Lora 微调 下,运行该脚本来执行微调过程,但注意,本文代码未使用分布式框架,微调 Qwen-7B-Chat 模型至少需要 24G 及以上的显存 tokenizer = AutoTokenizer.from_pretrained('/root/autodl-tmp/qwen/Qwen-7B-Chat', use_fast=False, trust_remote_code 如果你的显卡比较新的话,可以用torch.bfolat形式加载 model = AutoModelForCausalLM.from_pretrained('/root/autodl-tmp/qwen/Qwen-7B-Chat /qwen/Qwen-7B-Chat/', use_fast=False, trust_remote_code=True) tokenizer.pad_token_id = tokenizer.eod_id

    86010编辑于 2025-07-17
  • TransNormerLLM-7B FastApi 部署调用

    TransNormerLLM-7B FastApi 部署调用 1. TransNormer包括具有385M、1B7B参数的基本版本。所有版本都完全开放给学术研究。 其整体结构如下: 图 1:新提出模型的整体架构 好啦,在了解TransNormer的基础上,我们开始调用吧,这里我们开始部署TransNormerLLM-7B的模型吧。 2. 模型的介绍地址(魔塔社区): https://www.modelscope.cn/models/OpenNLPLab/TransNormerLLM-7B/summary 在 /root/autodl-tmp '__main__': # 加载预训练的分词器和模型 model_name_or_path = '/root/autodl-tmp/OpenNLPLab/TransNormerLLM-7B

    28110编辑于 2025-07-17
  • XVERSE-7B-chat FastAPI 部署

    XVERSE-7B-Chat为XVERSE-7B模型对齐后的版本。 XVERSE-7B 是由深圳元象科技自主研发的支持多语言的大语言模型(Large Language Model),参数规模为 70 亿,主要特点如下: 模型结构:XVERSE-7B 使用主流 Decoder-only 如果你使用的是 autodl 部署模型的话,我们有制作好的镜像供大家使用:XVERSE-7B-Chat # 升级pip python -m pip install --upgrade pip # 更换 snapshot_download, AutoModel, AutoTokenizer import os model_dir = snapshot_download('xverse/XVERSE-7B-Chat answer # 返回响应 # 主函数入口 if __name__ == '__main__': # 加载预训练的分词器和模型 model_path = "xverse/XVERSE-7B-Chat

    21000编辑于 2025-07-21
  • 来自专栏小狐狸说事

    7b2主题评论气泡

    其他主题有接口也可以使用 这个功能来自于https://github.com/515184405/barrage,版权归他所有。 1px solid transparent; border-radius: 4px; } .btn-primary { color: #fff; background-color: #337ab7; settings.direction.split(/\s+/)[1]; //横向 M.bgColors = ['#f79a3e', '#e66760', '#5382af', ' #aea79f', '#37b8af ', '#008b5d', ' #f0b849', '#499df3', ' #5f6c72', ' #8c88cd' ]; //随机背景色数组 Obj.arrEle = []; //预计存储dom集合数组

    47320编辑于 2022-12-01
  • XVERSE-7B-chat langchain 接入

    XVERSE-7B-Chat为XVERSE-7B模型对齐后的版本。 XVERSE-7B 是由深圳元象科技自主研发的支持多语言的大语言模型(Large Language Model),参数规模为 70 亿,主要特点如下: 模型结构:XVERSE-7B 使用主流 Decoder-only 如果你使用的是 autodl 部署模型的话,我们有制作好的镜像供大家使用:XVERSE-7B-Chat # 升级pip python -m pip install --upgrade pip # 更换 完成自定义 LLM 类之后,可以以完全一致的方式调用 LangChain 的接口,而无需考虑底层模型调用的不一致。 -> str: return "XVERSE_LLM" 在上述类定义中,我们分别重写了构造函数和 _call 函数:对于构造函数,我们在对象实例化的一开始加载本地部署的 XVERSE-7B

    24000编辑于 2025-07-21
领券