首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    过压保护(2)_过压保护值和欠压保护

    当没有外部电源接入时,如果电池电压高于2.8V-3.2V的保护门限,/EN被R2拉低, MAX4842驱动Q1、Q2的栅极为高电平使其导通,电池为负载供电; 当有外部电源接入时,通过R1/R2分压后在 (电路要求可达30V,mos导通电阻小) 2、MOS的电路设计方法,如电阻取值等? 3、是否有更好的过压保护电路方案? LTC4360-1 / LTC4360-2 – 过压保护控制器 特点 2.5V 至 5.5V 工作电压 过压保护高达 80V 对于大多数应用无需使用输入电容器或 TVS (瞬态电压抑制器) 准确度为 2% 应用 USB 保护 手持式计算机 蜂窝电话 / 智能手机 MP3 / MP4 播放器 数码相机 LTC4361-1 / LTC4361-2 – 过压 / 过流保护控制器 特点 2.5V 至 5.5V 工作电压 8 引脚 ThinSOTTM 封装和 8 引脚 (2mm x 2mm) DFN 封装 描述 LTC®4361 过压 / 过流保护控制器可保护 2.5V 至 5.5V 系统免遭输入电源过压的损坏。

    2.4K20编辑于 2022-09-20
  • 来自专栏Mintimate's Blog

    公网暴露 Ollama 端口存在风险?使用 OneAPI 聚合和保护你的模型调用

    博客:https://www.mintimate.cnMintimate’s Blog,只为与你分享Ollama是一个强大的本地大语言模型运行框架,它让用户能够在本地设备上轻松运行和管理各种大语言模型。 然而,Ollama 默认端口服务没有鉴权功能,暴露在公网上的端口存在一定的风险,任何人都可以访问这些端口并调用模型;更不用说,早起版本的 Ollama 还存在 CVE-2024-39720、CVE-2024 当然,你也可以使用 Nginx 去反向代理 Ollama 端口;但是我个人认为,还是 OneApi优雅,也方便数据统计。 当然,对于 Ollama 来说,你可以设置 Ollama 的 Serve 服务,仅允许你部署 OneApi 的服务器 IP 来访问,进而,使用 OneApi 来保护你的 Ollama 端口和服务。 之后使用 Docker 部署我们的 OneApi,最好用 OneApi 聚合 Ollama 服务,输出 API Key。

    1.6K10编辑于 2025-03-12
  • 来自专栏机器学习与统计学

    Ollama,危?

    大家好,我是 Ai 学习的老章 Ollama 是咱们公众号的常客了,比较重要的几个功能升级我都写过文章介绍 Ollama 发布新 app,文档聊天,多模态支持,可在 macOS 和 Windows 上使用 Ollama 的新动作:大模型联网搜索 API、MCP 客户端集成 Ollama 可以启动云端大模型了,免费 Ollama 背后执行推理的核心技术其实是由 llama.cpp 承担的,GGUF 模型格式也是由 现在 llama.cpp 迎来重大更新,它也有了自己的 Web UI,我测试了安装部署和自行打包,很多地方确实比 Ollama 还有方便好用。 的 Shimmy 要好很多,但是 Ollama 玩了这么久也不是吃素的 1、Ollama 有更加方便的 app,随时切换本地模型甚是方便 2Ollama 还有免费云模型可以调用呢,deepseek-v3.1 并发太差:不要再用 _Ollama_,不要再用 llama.cpp

    35110编辑于 2025-11-20
  • 来自专栏飞鸟的专栏

    使用OAuth2保护API

    OAuth2是一种授权框架,用于保护API和其他Web资源。它使客户端(应用程序或服务)可以安全地访问受保护的资源,而无需暴露用户凭据(例如用户名和密码)。 以下是使用OAuth2保护API的详细步骤:步骤1:注册客户端 在使用OAuth2保护API之前,客户端必须先在OAuth2服务器上进行注册。 步骤2:用户授权 当用户尝试访问受保护的资源时,他们将被重定向到OAuth2服务器以进行身份验证。在此过程中,用户必须授权客户端访问他们的资源。 如果请求成功,OAuth2服务器将向客户端返回一个访问令牌。步骤4:使用访问令牌访问受保护的资源 客户端现在可以使用访问令牌来访问受保护的资源。 以下是使用OAuth2保护API的示例:假设我们有一个受保护的API,客户端需要使用OAuth2才能访问该API。

    1.6K20编辑于 2023-04-13
  • 来自专栏.Net Core技术分享

    Ollama系列05:Ollama API 使用指南

    本文是Ollama系列教程的第5篇,在前面的4篇内容中,给大家分享了如何再本地通过Ollama运行DeepSeek等大模型,演示了chatbox、CherryStudio等UI界面中集成Ollama的服务 在今天的分享中,我将分享如何通过API来调用ollama服务,通过整合ollama API,将AI能力集成到你的私有应用中,提升你的职场价值! Ollama API Ollama 提供了一套简单好用的接口,让开发者能通过API轻松使用大语言模型。 本篇内容将使用Postman作为请求工具,和开发语言无关。 \n2. **下雨天**:云层覆盖天空,可能导致颜色较为阴郁或变黑。\n3. **雨后天气**:雨后的天空可能恢复为明亮的色调。 /ollama/ollama/blob/main/docs/openai.md

    4.3K21编辑于 2025-03-21
  • 来自专栏云云众生s

    使用Ollama和Llama 2设置和运行本地LLM

    译自 How to Set up and Run a Local LLM with Ollama and Llama 2,作者 David Eastman 是一位常驻伦敦的专业软件开发人员,曾在 Oracle 如果你正在寻找作为测试工作流一部分的 LLM,那么 Ollama 就是适合的选择: @patrickdubois 的 GenAI 测试演示 对于测试来说,从 Ollama 控制的本地 LLM 是很好的自包含系统 我安装了 Ollama,打开了我的 Warp 终端,然后被提示尝试 Llama 2 模型(暂时我会忽略这个不是真正开源的论点)。 SelectedModel = "llama2"; ConversationContext context = null; context = await ollama.StreamCompletion Ollama 的可控性在我的 MacBook 上也令人印象深刻。

    1.1K20编辑于 2024-03-28
  • 来自专栏工程师看海

    电池保护2:锂电池放电过流保护原理OCD

    锂电池的使用越来越普及,市面上大部分电子产品都使用的是锂电池,锂电池有4种基本保护,分别是过度充电(OVP)、过度放电(UVP)、充电过流(OCC)、放电过流(OCD)(负载短路)。 我们通常见到的设备上的电池包,是由电芯(CELL)和保护板两部分构成的。保护功能由保护板实现。 过度放电保护逻辑以前曾经介绍过,今天介绍放电过流的保护原理。 下面是一个电池保护板的原理图框图以及放电回路,放电回路是绿色箭头部分,其中COUT、DOUT分别是充电(charge)、放电(Discharge)控制引脚,V-是重要的sence引脚,用来检测电池各种过放 同时,需要注意的是,如果在放电过流保护状态下进行充电,保护IC也会退出OCD状态,因为充电时的回路和放电回路相反,见下图,在放电时V-电压高于VSS,充电时相反,V-电压降低,这就满足了退出放电过流的条件 以上就是电池放电过流的保护原理。

    3.3K21编辑于 2022-06-23
  • 来自专栏Linux相关

    Ollama【部署 02】Linux本地化部署及SpringBoot2.X集成Ollamaollama-linux-amd64.tgz最新版本 0.6.2)

    > download.log 2>&1 &# 使用 wget 进行断点续传nohup wget -c https://ollama.com/download/ollama-linux-amd64.tgz > download.log 2>&1 &# wget跟随的最新urlhttps://github.com/ollama/ollama/releases/latest/download/ollama-linux-amd64 /ollama serve >> serve.log 2>&1 &# CPUmsg="inference compute" id=0 library=cpu variant=avx2 compute=" /ollama serve >> serve.log 2>&1 &Ollama 的环境变量:Usage: ollama serve [flags]Aliases: serve, startFlags library to bypass autodetection2.SpringBoot 集成Spring AI 官方文档 Ollama 的 API 说明文档。

    2.5K10编辑于 2025-08-22
  • 来自专栏北京马哥教育

    fail2ban保护linux安全

    一、下载安装 #wget http://cdnetworks-kr-2.dl.sourceforge.net/project/fail2ban/fail2ban-stable/fail2ban- 0.8.4/fail2ban-0.8.4.tar.bz2 #tar xvfj fail2ban-0.8.4.tar.bz2 #cd fail2ban-0.8.4 #python = /tmp/fail2ban.sock jail.conf配置里是fail2ban所保护的具体服务的配置,这里以SSH来讲。 那么就要修改fail2ban的启动规则,把上面那条改为 iptables -I INPUT 2 -p --dport -j fail2ban- 这样fail2ban就会把自己的规则作为INPUT 来看看sshd的规则,就能了解这些filter应该怎么写,你就可以 用fail2ban来保护更多自己的服务。

    1.3K80发布于 2018-05-02
  • centos7 安装ollama 运行 ollama -v 报错解决

    问题在ollama官网上,找到了linux上安装ollama的命令后,复制到自己的虚拟机中,下载完ollama,运行 ollama serve,提示以下报错:ollama: /lib64/libm.so )ollama: /lib64/libstdc++.so.6: version `CXXABI_1.3.11' not found (required by ollama)ollama: /lib64/ critical programs are missing or too old: compiler*** Check the INSTALL file for required versions.2. 0gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-SIG-SCLo 重新 yum makecache5.继续升级 gcc 和 make按顺序继续执行序号2中升级 make命令,从yum install -y devtoolset-8-gcc* 开始6.继续升级 make按顺序执行序号2中的命令,从 wget http://ftp.gnu.org/gnu/make

    3.2K11编辑于 2025-06-12
  • 来自专栏养虾记

    OpenClaw 接入本地 Ollama

    适用范围:希望在本地运行AI模型的用户需要离线使用OpenClaw的用户关注数据隐私的用户想要降低API调用成本的用户Ollama的优势:本地运行:数据不离开本地机器,保护隐私离线可用:无需网络连接即可使用开源免费 :无需支付API费用模型丰富:支持多种开源大语言模型2.环境准备2.1安装OllamamacOS展开代码语言:BashAI代码解释#使用Homebrew安装$brewinstallollama#或使用官方安装脚本 /qwen2.5:7bgateway.mode:localgateway.port:18789gateway.bind:loopback步骤2:选择模型提供方,配置Ollama连接在Model/authprovider 检查端口占用:展开代码语言:BashAI代码解释$lsof-i:11434查看Ollama日志:展开代码语言:BashAI代码解释$ollamaserve2>&1检查环境变量:展开代码语言:BashAI 代码解释#如需修改监听地址$exportOLLAMA_HOST=0.0.0.0:11434Q2:模型下载很慢?

    2.5K40编辑于 2026-03-31
  • 来自专栏AI进修生

    使用 Gemma 2 构建 RAG的全过程( Ollama 或 Hugginface )

    Aitrainee | 公众号:AI进修生 Gemma 2 :使用 Ollama 或 Hugginface 构建 RAG(检索增强生成)管道。了解高级 RAG、部署策略。 没错,这两天关于Gemma2 9B、27B开源的消息又刷屏了,如果你还不知道的话,可以搜搜看看,还是挺不错的。 既然老百姓的普通电脑都能跑了(9B),那我们就介绍使用 Gemma 2 构建 RAG的全过程: 步骤一:下载和安装Gemma 2 首先,您需要在本地计算机上安装Ollama,这是一个终端应用程序,可以帮助您下载大型语言模型 ,例如Gemma 2。 只需打开终端,复制并粘贴以下命令即可:ollama run gemma2。这将把模型下载到你的计算机上。 我已经完成了这一步,现在我们继续在代码编辑器中安装必要的包。

    41400编辑于 2024-12-02
  • 来自专栏技术杂记

    Hypervisor Necromancy;恢复内核保护器(2)

    甚至 虽然我们将从 EL3 直接降到 EL1 以允许 专有的 EL2 实现来定义自己的状态,我们仍然必须 设置一些 EL2 状态寄存器值来初始化 EL1 执行状态。 详细地说,要从 EL3 下降到 EL2,我们必须在 Secure 中定义 EL2 状态 配置寄存器 (SCR_EL3)。 page table PA orr \tmp2, \tmp2, #AARCH64_PGTBL_TBL_ENTRY // valid table entry str \tmp2, [\tbl 2 级条目索引 (2) 为 0 并且 该条目的值为 0x80000711,表示物理上的块条目 地址 0x80000000。 由于EL2 未设置异常向量表,唯一的方法是下降到 EL2 来自 EL3,就像我们对 EL1 所做的那样。

    2.8K390编辑于 2022-02-09
  • 来自专栏.Net Core技术分享

    Ollama系列06:C#使用OllamaSharp集成Ollama服务

    本文是Ollama系列教程的第6篇,主要介绍如何通过SDK将ollama集成到c#程序中。 Ollama 提供了HTTP API的访问,如果需要使用SDK集成到项目中,需要引用第三方库OllamaSharp,直接使用nuget进行安装即可。 功能亮点 简单易用:几行代码就能玩转Ollama 值得信赖:已为Semantic Kernal、.NET Aspire和Microsoft.Extensions.AI提供支持 全接口覆盖:支持所有Ollama = new OllamaApiClient(uri); 获取模型列表 // list models var models = await ollama.ListLocalModelsAsync(); var chat = new Chat(ollama); Console.WriteLine(); Console.WriteLine($"Chat with {ollama.SelectedModel

    88210编辑于 2025-03-26
  • ollama指定目录安装

    ollama安装时候不能选择安装路径,只能默认安装C盘大概需要5GB空间,面对C盘没有多少的用户就很难装上去。 windows默认安装在C盘,不支持修改程序安装目录,可以在Windows终端中输入以下命令来自定义安装路径 在OllamaSetup.exe安装包文件路径下打开终端 D:\Ollama为安装的目标路径 OllamaSetup.exe /DIR="D:\Ollama" 自定义模型储存路径 在用户环境变量中添加一个OLLAM_MODELS环境变量来定义模型的储存位置

    2.8K00编辑于 2025-07-16
  • 来自专栏Vehicle攻城狮

    圈外人看E2E保护

    AutoSAR中的E2E保护。 E2E保护介绍 E2E(End-to-End)保护是一种端对端保护机制,举个例子:控制器中某个安全关键性功能模块的输出计算要依赖于内部某个非安全性的模块或其他安全等级要求不高的硬件通过总线传输过来的数据 H3:微控制器故障,例如上下文切换时寄存器失效等 通过采用 E2E 通信保护机制可以在运行时,实时检测到通信链中出现的错误,E2E 库提供了相关的保护验证机制来保证与功能安全相关的通信。 AutoSAR标准里,采用E2E保护的算法是在E2Elibrary中实现的,调用者要负责该库使用的正确性,AutoSAR E2E可将通过RTE发送的安全相关数据元素加上保护控制流,并校验从RTE接收到的安全相关数据元素是否正确 基于E2EPW方式,如下是进行跨ECU通讯的E2E保护示例图: 3、针对跨 ECU 之间的通信,COM E2E Callout 的 E2E 保护和校验是在基础软件层做的,在这种实现方式下检验的单元是以

    1.9K21编辑于 2022-04-19
  • 来自专栏网络信息安全

    利用ROP-ret2Syscall突破NX保护

    利用ROP-ret2Syscall突破NX保护 大家还记的之前说过的ret2text漏洞吗,那是利用依赖于程序中的存在,执行system(’/bin/sh’)的函数,如果没有这个函数的话,我们怎么办呢? 我们使用ret2shellcode是自定义shellcode代码,但是这中方法的局限性是程序没有开启NX保护,那么如何程序开启了NX保护,这个时候我们就要使用Ret2Syscall大法了!!!! Gadget最后一般都有ret,因为要将程序控制权(IP)给下一个Gadret NX保护开启了 下一步要组合shellcode 系统调用号 eax = 0xb 第一个参数 ebx /bin /ret2syscall --only "pop|ret" | grep "eax" 我们选用0x80bb196 这些就是我们要使用的指令片段了 exp如上! 调试!! 然后继续finish 到了mian这里,我们再看一个栈中的情况 这时/bin/sh已经写到栈里了 ret2syscall的局限性是很大的,如果没有我们可以使用的指令片段的怎么办,

    37410编辑于 2024-03-12
  • 来自专栏开源部署

    如何使用Fail2Ban保护SSH服务

    在这篇文章中,我将指导您如何使用Fail2Ban保护SSH服务。 首先,您需要安装Fail2ban: linuxidc@linuxidc:~/www.linuxidc.com$ sudo systemctl start fail2ban 安装后,Fail2ban将立即开始工作 整个配置在文件/etc/fail2ban/jail.conf中。 start fail2ban [sudo] linuxidc 的密码: linuxidc@linuxidc:~/www.linuxidc.com$ sudo systemctl enable fail2ban 您可以使用以下命令找到包含的保护列表: fail2ban–client status 您可以使用以下命令查找每个服务的受阻止客户端的统计信息: fail2ban–client status service_name

    1.1K10编辑于 2022-07-28
  • ollama安装初体验

    Qwen2、Llama3、Phi3、Gemma2等开源的大型语言模型。      5.OLLAMA_NUM_PARALLEL=2  设置2个用户并发请求      6.OLLAMA_MAX_LOADED_MODELS=2 设置同时加载多个模型 启动Ollama后安装启动本地大模型 ollama run qwen2:0.5b 退出 /bye 查看本地大模型 ollama list 查看帮助: (base) C:\Users\Administrator>ollama --help ollama run:运行模型,如ollama run qwen2,若本地无该模型会自动下载并运行,可用于快速测试模型。 }' (2).

    1.1K10编辑于 2025-07-16
  • 来自专栏leehao

    Ollama整合open-webui

    It supports various LLM runners, including Ollama and OpenAI-compatible APIs.

    52310编辑于 2025-02-11
领券