首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏企鹅号快讯

    保护 IBM Cognos 10 BI 环境

    目的 本文介绍了一些在保护 IBM Cognos 10 BI 环境时需要考虑的最佳实践和准则。 保护 IBM Cognos 10 BI 环境指南 IBM Cognos 10 产品提供了灵活多样的安全特性,可实现大多数(并非全部)安全环境下的集成。 这对于只有可信的实例才能访问 CA 服务的 IBM Cognos 10 BI 部署的集成和安全来说,非常重要。这就是为何内置 CA 服务要受密码保护的原因。 为此颁发的每个键对和证书都保存在单独的密钥库中,并受密码保护。 Cognos Application Firewall 能够充分保护 IBM Cognos 10 BI 免受这些攻击,并确保只处理有效的参数和数据。

    3.3K90发布于 2018-01-05
  • 来自专栏Mintimate's Blog

    公网暴露 Ollama 端口存在风险?使用 OneAPI 聚合和保护你的模型调用

    博客:https://www.mintimate.cnMintimate’s Blog,只为与你分享Ollama是一个强大的本地大语言模型运行框架,它让用户能够在本地设备上轻松运行和管理各种大语言模型。 然而,Ollama 默认端口服务没有鉴权功能,暴露在公网上的端口存在一定的风险,任何人都可以访问这些端口并调用模型;更不用说,早起版本的 Ollama 还存在 CVE-2024-39720、CVE-2024 当然,你也可以使用 Nginx 去反向代理 Ollama 端口;但是我个人认为,还是 OneApi优雅,也方便数据统计。 当然,对于 Ollama 来说,你可以设置 Ollama 的 Serve 服务,仅允许你部署 OneApi 的服务器 IP 来访问,进而,使用 OneApi 来保护你的 Ollama 端口和服务。 之后使用 Docker 部署我们的 OneApi,最好用 OneApi 聚合 Ollama 服务,输出 API Key。

    1.6K10编辑于 2025-03-12
  • 来自专栏机器学习与统计学

    Ollama,危?

    大家好,我是 Ai 学习的老章 Ollama 是咱们公众号的常客了,比较重要的几个功能升级我都写过文章介绍 Ollama 发布新 app,文档聊天,多模态支持,可在 macOS 和 Windows 上使用 Ollama 的新动作:大模型联网搜索 API、MCP 客户端集成 Ollama 可以启动云端大模型了,免费 Ollama 背后执行推理的核心技术其实是由 llama.cpp 承担的,GGUF 模型格式也是由 现在 llama.cpp 迎来重大更新,它也有了自己的 Web UI,我测试了安装部署和自行打包,很多地方确实比 Ollama 还有方便好用。 的 Shimmy 要好很多,但是 Ollama 玩了这么久也不是吃素的 1、Ollama 有更加方便的 app,随时切换本地模型甚是方便 2、Ollama 还有免费云模型可以调用呢,deepseek-v3.1 并发太差:不要再用 _Ollama_,不要再用 llama.cpp

    35210编辑于 2025-11-20
  • 来自专栏.Net Core技术分享

    Ollama系列05:Ollama API 使用指南

    本文是Ollama系列教程的第5篇,在前面的4篇内容中,给大家分享了如何再本地通过Ollama运行DeepSeek等大模型,演示了chatbox、CherryStudio等UI界面中集成Ollama的服务 在今天的分享中,我将分享如何通过API来调用ollama服务,通过整合ollama API,将AI能力集成到你的私有应用中,提升你的职场价值! Ollama API Ollama 提供了一套简单好用的接口,让开发者能通过API轻松使用大语言模型。 本篇内容将使用Postman作为请求工具,和开发语言无关。 参考内容 官方API文档:https://github.com/ollama/ollama/blob/main/docs/api.md 官方兼容OpenAI文档:https://github.com /ollama/ollama/blob/main/docs/openai.md

    4.3K21编辑于 2025-03-21
  • 来自专栏Java技术栈

    10保护 Spring Boot 应用的绝佳方法

    HSTS是一种Web安全策略机制,可以保护网站免受协议降级攻击和cookie劫持。服务器使用名为Strict-Transport-Security的响应头字段将HSTS策略传送到浏览器。 每天都会在现有项目和库中发现新的漏洞,因此监控和保护生产部署也很重要。 4.启用CSRF保护 跨站点请求伪造(Cross-Site Request Forgery )是一种攻击,强制用户在他们当前登录的应用程序中执行不需要的操作。 10.让你的安全团队进行代码审查 代码评审对任何高性能软件开发团队都至关重要。 原文:developer.okta.com/blog/2018/07/30/10-ways-to-secure-spring-boot 译文:www.jdon.com/49653 (完)

    3K40发布于 2019-07-12
  • 来自专栏张善友的专栏

    10招步骤保护IIS服务器安全

    解决方案 采取下面的10个步骤来确保IIS的安全: 1. 专门为IIS应用和数据设置一个NTFS磁盘驱动器。如果可能的话,不允许IUSER(或者无论什么匿名用户)存取任何其它的磁盘驱动器。 使用微软的工具来保护机器:IIS Lockdown和UrlScan。 启动使用IIS的日志文件(logging)功能。除了IIS纪录外,如果可能的话,同时也使用防火墙日志文件功能。 -i:EVT We still get messy-looking results, but now they're all Error events: System   975   2005-05-10 16:40:09   2005-05-10 16:40:09     10010   1   Error event   0   None   DCOM     {601AC3DC-786A-4EB0

    2.5K50发布于 2018-01-22
  • 来自专栏Khan安全团队

    保护您的 Android 手机的 10 种方法

    以下是保护您的 Android 手机的一些行之有效的方法。 我如何保护你:让我数一数路 让我们面对现实吧,“每月有超过 20 亿台活跃设备”对于网络犯罪分子来说听起来令人垂涎三尺,无论这些设备运行的是什么糖果主题操作系统版本。 对于初学者,您可能想要检查的一些功能是Smart Lock、设备保护、查找我的设备、验证应用程序和全盘加密。 请注意,一旦用户选择加密功能,新旧智能手机型号可能会遇到 性能问题。 2. 10. 停下来想一想。 当涉及通过电子邮件、短信或社交媒体发送给您的链接时,请在做任何事情之前停下来想一想。你知道发件人吗?更好的是,您信任发件人吗?

    1K10编辑于 2022-01-14
  • 来自专栏Android 开发者

    Android 10 中身体活动数据的隐私保护

    Android 10 在数据可控性方面又作了进一步优化,提高了用户对此类个人数据的控制权,而其中的一项关键变更则会对应用的活动监测和数据检索方式造成影响,要求 Android 应用依照新规定来监测用户的身体活动并从 Android 10 中的身体活动识别权限 Android 10 针对活动识别引入了全新的运行时权限。 如果您的应用此前已经请求过旧版本权限,那么当用户升级至 Android 10 后,系统将自动向您的应用授予新权限。 如果您的应用以 Android 10 为目标平台,请您为应用请求 ACTIVITY_RECOGNITION 权限并采用新的权限模式,以符合新的政策要求。 com.google.step_count.cadence com.google.activity.segment com.google.activity.exercise com.google.activity.summary 随着 Android 10

    2.2K10发布于 2019-12-03
  • 来自专栏SDNLAB

    保护微服务架构的10个有效方式

    以下将介绍10保护微服务架构的途径: 1、在开发微服务时,建立通用的可重复编码标准,可以在其他地方重复使用,减少可能导致可利用漏洞或升级特权的差异。 2、将渠道控制在最低限度,考虑每个特定的微服务被损害之后会造成什么后果,并且注意如何调整并保护微服务。 3、使用访问控制向进程或个人提供数据。 完全记录每个微服务以说明其服务的功能,可以暴露出潜在的弱点 8、完全映射微服务之间的通信方法,以便识别潜在的问题区域以及可能表示漏洞或劫持的不规则行为 9、当使用外部访问时,对传输中的数据和禁止时使用加密 10

    84140发布于 2018-03-29
  • 来自专栏第三方工具

    window10设置保护眼睛的颜色

    1、调出运行菜单。右击开始键选择运行,或者同时按下键盘上的WIN+R打开运行框,输入 regedit 回车转到注册表编辑器。 2、选择第二项 HKEY_CURRENT_USER 点击进入。进入后点击 Control Panel 进入。 3、在Control Panel 文件夹中找到 Colors 文件夹后点击,在 Colors 中找到 window,点击。将你准备设置的护眼绿参数(202 234 206)填写后并确定。 4、在开始菜单栏那里找到重启选项,立即重启电脑生效。

    43110编辑于 2024-10-09
  • centos7 安装ollama 运行 ollama -v 报错解决

    问题在ollama官网上,找到了linux上安装ollama的命令后,复制到自己的虚拟机中,下载完ollama,运行 ollama serve,提示以下报错:ollama: /lib64/libm.so .6: version `GLIBC_2.27' not found (required by ollama)ollama: /lib64/libstdc++.so.6: version `GLIBCXX _3.4.25' not found (required by ollama)ollama: /lib64/libstdc++.so.6: version `GLIBCXX_3.4.20' not found (required by ollama)ollama: /lib64/libstdc++.so.6: version `CXXABI_1.3.9' not found (required by ollama )ollama: /lib64/libstdc++.so.6: version `CXXABI_1.3.11' not found (required by ollama)ollama: /lib64/

    3.2K11编辑于 2025-06-12
  • 来自专栏养虾记

    OpenClaw 接入本地 Ollama

    1.概述本手册介绍如何在OpenClaw中配置本地Ollama服务。Ollama是一个开源的本地大语言模型运行框架,支持在本地机器上运行多种开源模型,如Llama、DeepSeek、Qwen等。 适用范围:希望在本地运行AI模型的用户需要离线使用OpenClaw的用户关注数据隐私的用户想要降低API调用成本的用户Ollama的优势:本地运行:数据不离开本地机器,保护隐私离线可用:无需网络连接即可使用开源免费 ,Ollama服务会自动启动。 列表中,选择Ollama。 :OpenClaw无法连接到Ollama

    2.5K40编辑于 2026-03-31
  • 来自专栏.Net Core技术分享

    Ollama系列06:C#使用OllamaSharp集成Ollama服务

    本文是Ollama系列教程的第6篇,主要介绍如何通过SDK将ollama集成到c#程序中。 Ollama 提供了HTTP API的访问,如果需要使用SDK集成到项目中,需要引用第三方库OllamaSharp,直接使用nuget进行安装即可。 功能亮点 简单易用:几行代码就能玩转Ollama 值得信赖:已为Semantic Kernal、.NET Aspire和Microsoft.Extensions.AI提供支持 全接口覆盖:支持所有Ollama = new OllamaApiClient(uri); 获取模型列表 // list models var models = await ollama.ListLocalModelsAsync(); var chat = new Chat(ollama); Console.WriteLine(); Console.WriteLine($"Chat with {ollama.SelectedModel

    88310编辑于 2025-03-26
  • ollama指定目录安装

    ollama安装时候不能选择安装路径,只能默认安装C盘大概需要5GB空间,面对C盘没有多少的用户就很难装上去。 windows默认安装在C盘,不支持修改程序安装目录,可以在Windows终端中输入以下命令来自定义安装路径 在OllamaSetup.exe安装包文件路径下打开终端 D:\Ollama为安装的目标路径 OllamaSetup.exe /DIR="D:\Ollama" 自定义模型储存路径 在用户环境变量中添加一个OLLAM_MODELS环境变量来定义模型的储存位置

    2.8K00编辑于 2025-07-16
  • 来自专栏电光石火

    Windows10关闭Microsoft Defender防病毒实时保护

    "gpedit.msc"进入到"本地组策略编辑器" 依次展开"本地计算机 策略"->"计算机配置"->"管理模板"->"Windows组件"->"Microsoft Defender防病毒"->"实时保护 "树节点菜单,找到右侧窗口栏的"关闭实时保护"栏。 默认为"未配置"状态,用"鼠标左键"双击打开"关闭实时保护"栏,将其状态更改成"已启用",并点击"应用"按钮生效。 ?

    1.7K20发布于 2021-04-07
  • ollama安装初体验

    存储:SSD硬盘以加快数据读取速度;考虑到模型文件较大,建议准备充足的存储空间,要求C盘空间可用>=10GB。 Ollama配置服务端口 编辑环境变量 配置端口 变量名称:OLLAMA_HOST 值: 0.0.0.0:8080 配置大模型本地存储路径 变量名称:OLLAMA_MODELS 值:D:\ollama \models 访问端口允许跨域 变量名称:OLLAMA_ORIGINS 值:* 配置环境变量后重启Ollama 常见ollama 属性设置   我们在平时使用ollama过程中会遇到不少问题,比如模型镜像加载在 模型操作命令 ollama serve:启动 Ollama 服务,是后续操作的基础。 ollama create:从模型文件创建模型,适用于自定义模型或本地已有模型文件的情况。 ollama list:列出本地已有的模型,方便管理和选择。 ollama cp:复制模型,可用于备份或创建模型副本。 ollama rm:删除模型,释放存储空间。

    1.1K10编辑于 2025-07-16
  • 来自专栏leehao

    Ollama整合open-webui

    It supports various LLM runners, including Ollama and OpenAI-compatible APIs.

    52310编辑于 2025-02-11
  • ollama的setup.exe和ollama-windows-amd64.zip区别

    在Windows系统上,安装Ollama最为便捷的途径是利用OllamaSetup.exe安装程序。该程序无需管理员权限,即可在你的个人账户中顺利完成安装。 我们致力于不断更新Ollama,以确保其能够支持最新的模型,而该安装程序将助你轻松保持软件的最新版本。 若你有意将Ollama作为服务进行安装或集成,那么可以选择使用独立的ollama-windows-amd64.zip压缩包。 此压缩包内仅包含Ollama CLI以及Nvidia和AMD的GPU库依赖项,这为你提供了将Ollama嵌入现有应用程序中的灵活性,或者通过如ollama serve等工具,利用NSSM等服务管理器将其作为系统服务来运行

    1.4K00编辑于 2025-07-16
  • 来自专栏云技术与

    ollama 离线安装本地模型

    13921 Feb 7 14:27 install.sh -rw-r----- 1 docker docker 1682401421 Feb 6 10:27 ollama-linux-amd64.tgz -rw-r----- 1 docker docker 2569 Feb 6 10:00 wget-log [docker@**-**-**-50 hyh]$ 4. vendor ID for NVIDIA and AMD case $1 in lspci) case $2 in nvidia) available lspci && lspci -d '10de nvidia) available lshw && $SUDO lshw -c display -numeric -disable network | grep -q 'vendor: .* \[10DE $SUDO rm -rf /usr/share/ollama/lib $SUDO chmod o+x /usr/share/ollama $SUDO install -o ollama -g ollama

    1.7K10编辑于 2025-10-31
  • 来自专栏Java Tale

    Linux内网离线安装Ollama

    ://github.com/ollama/ollama/releases/ # x86_64 CPU选择下载ollama-linux-amd64 # aarch64|arm64 CPU选择下载ollama-linux-arm 离线下载Linux环境的Ollama安装脚本 保存到/home/Ollama目录 ## 下载地址1,浏览器中打开下面地址 https://ollama.com/install.sh ## 下载地址 <模型名称> ollama run qwen2:7b 关闭 Ollama 服务 # 关闭ollama服务 service ollama stop Ollama 常用命令 ## 启动Ollama服务 ollama serve ## 从模型文件创建模型 ollama create ## 显示模型信息 ollama show ## 运行模型 ollama run 模型名称 ## 从注册表中拉去模型 ollama pull 模型名称 ## 将模型推送到注册表 ollama push ## 列出模型 ollama list ## 复制模型 ollama cp ## 删除模型 ollama rm 模型名称 ## 获取有关Ollama

    12K12编辑于 2024-08-15
领券