首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏finclip小程序ide

    安全的主流解决方案是什么?

    因此,安全架构的概念非常宽泛,包括安全控制措施、安全服务(例如身份验证、访问控制等)和安全产品(例如防火墙、入侵检测等)。 劫持/污染如此多的、影响重大的前端安全问题,直接把软件安全防范推上了风口浪尖,安全人员面临着挑战也倍数级增长。 安全的主流解决方案1、 APP 运行时保护对移动应用的逆向分析还有动态调试。通过动态调试还可以伪造或篡改请求 / 响应包,从而攻击服务器4、APP 业务安全为了防止 APP 用户恶意注册及薅羊毛等恶意行为,可以在 APP 中加入设备指纹,进行数据埋点等,将 APP 数据接入业务风控平台,进行业务反欺诈。 结语介绍了Web前端安全问题产生原因,然后给出了对应的解决策略,从而降低和避免网站被攻击的可能性,另外可以看到Web安全是一个很大的课题,Web前端安全仅是其中的一个最前端和常见的领域,也可以看到要开发一个安全性非常高的

    73900编辑于 2022-11-17
  • AI的终极形态

    在7~8B的参数规模下,该模型的功能优化堪称“诚意十足”,一举将单图、多图、视频理解三项核心能力成功“压缩”至,性能表现与GPT-4V看齐。 虽然许多小模型在特定能力上已经具备了媲美十倍甚至百倍参数大模型的实力,GPT-4经常被用作这些小模型的比较对象,并且“偶有失手”。 苹果的Apple Intelligence通过一个对标GPT-4的云端模型Apple Server来处理复杂任务,这不仅是因为终端设备受限于芯片、电池和发热等因素的选择,更是为提供“无所不知、无所不能 PCC为AI的实现提供了一套能够给予公众信心、可落地的数据安全和用户隐私保护方案。当然,不是每家公司都能够生产自己独有的芯片和应用生态,其它类型的企业同样在努力解决这一问题。 例如,Cohere需要为企业开发高性能、高安全性的AI模型,其云端隐私方案必须达到企业级的数据隐私和安全要求。

    80710编辑于 2024-08-28
  • 来自专栏AIWalker

    高效骨干RepGhost | 重参数赋能GhostNet,达成超高效骨干

    https://github.com/ChengpengChen/RepGhost

    52810编辑于 2024-02-17
  • 来自专栏AI科技评论

    国产小模型超越 GPT-4V,「多模态」能力飞升

    大模型的解耦难题:是模型适配终端,还是终端适配模型? 继被吴恩达大力推广的 ChatDev 后,面壁在模型上频出奇招,再次推出多模态模型 MiniCPM-Llama3-V 2.5,直接干翻 GPT-4V 与多模态巨无霸 Gemini Pro,引起了海内外的广泛关注 1、小模型 SOTA 诞生? 显存管理等优化方式,面壁将 MiniCPM-Llama3-V 2.5 在手机的语言解码速度提升到 3-4 token/s。 总的来说,面壁最新取得的多模态模型成果 MiniCPM-Llama3-V 2.5 是国产之光,加速了国产大模型部署在的节奏,也给 AI 行业提供了多方位的参考。

    1.4K10编辑于 2024-05-22
  • 来自专栏AI学习笔记

    AutoML:硬件感知NAS 2.0

    引言在移动设备和物联网(IoT)快速发展的今天,将机器学习模型直接部署到设备(如智能手机、平板电脑、嵌入式设备等)已成为一种趋势。 然而,设备的硬件资源(如计算能力、内存、电池寿命等)通常有限,这给模型部署带来了巨大挑战。传统的机器学习模型开发流程往往忽视了设备的硬件特性,导致模型在实际部署时性能不佳或无法运行。 为了解决这一问题,研究者们提出了AutoML,特别是硬件感知神经网络架构搜索(NAS 2.0),它能够在考虑硬件约束条件下自动设计出高效、优质的模型。 模型优化挑战在设备上部署深度学习模型面临诸多挑战:挑战类型具体问题影响计算资源限制有限的CPU/GPU计算能力模型推理速度慢内存限制有限的内存空间无法加载大型模型能耗限制电池寿命有限模型持续运行时间短热限制设备散热能力差长时间运行导致设备过热硬件感知 AutoML部署流程环境配置在开始AutoML部署之前,需要确保以下环境配置:硬件平台:目标设备(如搭载骁龙处理器的智能手机、NVIDIA Jetson开发板等)开发环境:Python 3.8

    48010编辑于 2025-07-22
  • 释放终端潜能:AI模型——高效、安全、无处不在的智能未来

    模型正引领AI技术变革,将强大的智能直接部署在手机、IoT设备等终端,实现毫秒级响应、极致隐私保护与显著成本优化。探索这项重塑人机交互与行业应用的关键技术。 隐私安全,固若金汤: 数据不出本地:敏感信息(如:个人照片、语音、健康数据)无需上传云端,从根本上杜绝数据泄露风险,满足GDPR等严苛隐私法规。 内容创作:移动图片/视频实时编辑与特效生成。技术基石:如何在资源受限的终端部署强大模型?模型的核心挑战在于如何在有限的内存、算力和功耗下保持高性能。 4.  云协同 (Hybrid AI): 最佳平衡策略:将轻量级、高实时性、强隐私需求的任务放在;复杂计算、大数据分析、模型更新等交给云端。两者无缝协作,提供最优整体体验。为何选择AI? AI模型已不再是未来概念,而是当下提升产品竞争力、优化用户体验、保障数据安全的关键技术。无论您是开发者、产品经理还是企业决策者,现在是时候:评估应用场景:您的哪些业务痛点可通过AI解决(延迟?

    1.5K10编辑于 2025-06-15
  • 苹果能引领AI时代吗?

    ~1B量级模型能力有限,性能提升空间不乐观 ●手机模型有实际价值 -> ~10B模型塞到手机里 -> 估计3~4年 ●云+混合将是长期主流 ○模型 + 云上模型 的配合能力将是核心技术点之一 除了苹果,去年以来,各大手机厂商已经陆续发布了其大模型的产品: 二、如何评价 模型的成熟度? 1.参数规模:“智商”水平至关重要,模型任重道远 为什么“智商”重要? “锦上添花” vs “底层革命” 大参数+量化 vs 小参数:大参数+量化效果上优于小参数 当前量化已到极限:BF16量化基本安全;INT4量化是当前大多手机使用的方式,但经常出现过拟合和稳定性问题;当前在探索 3.能耗:发热&续航表现短期不会大幅优化,是手机大模型的主要瓶颈 现状:目前没有大规模测试模型推理的功耗;以游戏运行为benchmark,功率大约在4~7W,续航时间仅为3~4小时 崩坏:星穹铁道最高画质各机型实测结果 AI原生OS,复杂任务都需要云上实现 5.多模态大模型:的价值主要在多模态理解,而不在多模态生成 ●多模态生成不在 价值有限:多模态能完成的生成场景(例如修图),已有CV技术也能解决;新的生成功能

    53110编辑于 2024-09-11
  • 来自专栏AI学习笔记

    MoE 推理:Mixtral 模型手机部署

    一、推理与 MoE 模型概述(一)推理的概念与意义推理指的是在终端设备上直接进行的模型推理计算,而非依赖云端服务器。 例如,在一些对实时性要求较高的应用场景中,如智能驾驶、实时语音识别等,推理可以快速做出决策,确保系统的高效运行。 (三)MoE 模型在推理中的挑战尽管 MoE 模型具有许多优势,但在推理中也面临着一些挑战。首先,由于终端设备的计算资源有限,如何高效地部署 MoE 模型是一个关键问题。 此外,如何在保证模型性能的前提下,尽可能地减少计算量和能量消耗,也是 MoE 推理需要解决的难题。 (三)Mixtral 模型在的优势Mixtral 模型在推理中具有以下显著优势:高效率 :通过优化的 MoE 结构,能够在有限的计算资源下实现快速的推理计算,满足手机实时交互的需求。

    68710编辑于 2025-07-14
  • 来自专栏技术人生黄勇

    4B参数!面壁模型MiniCPM 3.0达到GPT-3.5水平

    模型正成为一个备受关注的技术前沿。面壁智能发布的MiniCPM 3.0,以其4B参数量在性能上逼近GPT-3.5,更在侧部署上实现了技术突破。 近日面壁智能发布了旗舰模型“小钢炮”系列的MiniCPM 3.0基座模型。MiniCPM 3.0是一款4B大小的模型,在自然语言理解、知识、代码、数学等能力上可达到GPT-3.5水平。 通过量化技术,该模型的内存需求被优化至仅 2GB,就很适合在(移动)环境中部署。 相较于云端大模型,兼具小尺寸和强性能的模型天然更适合智能硬件产品,因为后者有更高的计算效率、实时反馈、安全隐私等方面的要求。 在真正落地设备时,模型的优势会得到显现。

    81710编辑于 2024-12-09
  • 来自专栏量子位

    GPT-4现场被小模型“暴打”,商汤日日新5.0:全面对标GPT-4 Turbo

    而且二者还是不在一个“重量级”的那种: 绿人:由GPT-4操纵 红人:由一个小模型操纵 那么这位又小又彪悍的选手到底什么来头? 不卖关子,它正是由商汤科技最新发布的日日新大模型——SenseChat Lite(商量轻量版)。 在速度方面,SenseChat Lite则是采用了云“联动”的MoE框架,在部分场景中推理占70%,会让推理成本变得更低。 但除了文本生成之外,徐立同样在现场还展示了商汤模型的多模态能力。 商汤的速度不只限于像大模型的运行效果之快,更宏观地来看,是自身在迭代优化进程上的速度。

    34110编辑于 2024-04-26
  • 来自专栏存储公众号:王知鱼

    WD:Flash加速AI推理在落地

    在客户设备上运行LLM时,需要解决内存墙问题。 3. 通过将部分LLM加载到GPU VRAM中,可以减少对系统内存的需求。 4. 利用闪存低延迟和高速度,可以实现更高效的参数加载和计算。 5. 设备模型推理挑战 AI应用在设备落地过程遇到的问题 SLM 模型虽已显著压缩,但与当前端设备的DRAM容量相比,仍明显超出。 toC市场对价格非常敏感,提高VRAM以支持客户推理的方式被认为是不经济的。 下图示意,RTX 2000 一张显卡的价格接近左图PC的一半。 4. 降低硬件压力: 在实际应用中,GPU和CPU的资源有限,特别是在客户设备上。稀疏性允许模型避免不必要的内存使用和计算,优化硬件资源的使用。 启用了在4GB GPU VRAM机器上运行Gemma模型,通过使用LRP(低秩预测器)检测稀疏性。 2. 使用XNVMe技术,数据加载时间减少了三倍。 3.

    56610编辑于 2025-02-11
  • 来自专栏凯哥讲故事系列

    凯哥 丨CES 2026: AI 的 崛起

    欢迎大家关注“凯哥讲故事系列”公众号,我是史凯 给你最本质,最实战的数字化转型指南 本文是 2026 年 1 月 4 日写的,对于 CES2026 的预测文 今天一看 CES2026的现场,果然如预测所言 能把“交互”从请求-响应,变成随时随地的即时反馈。 (小模型驻):负责高频、低风险、强实时 典型特征: 高频:每天反复用(输入、翻译、总结、检索) 强实时:等不起 强隐私:不适合出门 模型不用“最聪明”,而要“足够聪明 + 足够稳定 + 足够省电 05| 把“推理能力”纳入采购与架构评审 如果你是企业的数字化/IT/产品负责人,2026 年要多做一件事:把 AI 当成新一代基础设施能力来评审,而不是当作“某个应用的小功能”。 3)治理与合规:不是“更安全”,而是“责任更清晰” 减少数据出门,但也意味着: 设备丢失、越权访问、模型被篡改 本地日志与审计的缺失 所以要同步补上:设备级安全、密钥托管、访问控制、可追溯日志。

    33910编辑于 2026-01-13
  • 来自专栏李洋博客

    zblog怎么在移动显示隐藏栏模块

    关于zblog主题模板手机移动针对不同主题采用了不同的方案,有些是默认显示,有些不显示栏,总归没有一个完美的解决方案,所以今天就抽空水一篇文章,教大家怎么显示或者隐藏栏模板的内容。 然后整体布局发生改变,嗯嗯,这个图标的意思就是模拟手机,然后在最右侧,点击“三个点”,然后点击最右侧图标”不懂看图: ? 页面再次变动,变为竖屏,顶部可以调节像素尺寸,如图: ? 类别名之后我们复制右侧红框代码,登录网站后台,主题设置,找到主题预留的自定义css接口(没有的话只能在样式表修改),粘贴代码: .side.fr {display:block; } 这样还不行,因为我们刚刚看到代码是先手机才隐藏的 ,难看,建议改为560px,意思就是栏在999px-561px之间隐藏,在560px以下显示栏模块。 这是显示模块教程,想要隐藏,这也简单,首先确定移动屏幕像素的尺寸,比如小于999px,那么隐藏的代码就是: @media screen and (max-width:999px){     .side.fr

    1.7K20发布于 2021-06-15
  • 来自专栏通用文字识别信息技术白皮书

    手机文字识别:挑战与解决方案

    在手机实现文字识别,考虑资源限制和效率至关重要。1.图像处理在手机进行图像预处理,必须精细权衡资源消耗与效果。 整体来看,这些预处理步骤和技术点确保在有限的手机算力和内存下,图像数据被快速、专业地准备好供后续的OCR模型处理。2.文字检测在手机实现文字检测,需要特别注重计算效率和模型大小。 总的来说,在手机实现文字检测,核心是采用轻量级模型、多尺度检测技术以及后处理优化,确保在有限的资源下达到实时、高准确的检测效果。3.文字识别在手机进行文字识别,考虑算力和存储资源的限制是关键。 由于的计算资源受限,选择轻量级的网络结构与优化策略尤为重要。首先,轻量级的序列识别网络如CRNN的精简版本被广泛使用。 再者,CTC (Connectionist Temporal Classification) 是常用的损失函数,用于的序列识别任务,它可以有效处理序列中的对齐问题,省去了传统的分段标注过程。

    1.2K30编辑于 2023-10-20
  • 来自专栏.NET 全栈开发专栏

    大模型实战指南:微调、部署、应用开发

    什么是大模型?大模型是指在边缘设备(如个人电脑、移动设备等)上运行的大型语言模型。相较于云端部署,模型具有以下优势:低延迟:本地运行无需网络请求,响应更快。 隐私保护:数据无需上传到云端,安全性更高。低成本:无需持续支付云服务费用。离线可用:在无网络环境下也能正常工作。 4. 微调大模型微调是优化模型性能的关键步骤,通过在特定数据集上训练模型,使其更适合目标任务。 总结通过本指南,你已经学会了如何在本地设备上完成大模型的微调、部署和应用开发。以下是关键步骤的回顾:准备环境:安装 Ollama、MiniConda 和 Qwen2.5-0.5B 模型。 本部署实践学习自datawhale开源社区,希望这篇指南也能帮助你快速上手大模型的开发!如果有任何问题,欢迎在评论区交流。

    1.6K21编辑于 2025-08-05
  • 来自专栏AIWalker

    旷视科技|商用Raw图像降噪方案

    标题&作者团队 【Happy导语】该文是旷视科技的研究员提出的一种“商用RAW图像降噪”方法,相应方法已被广泛应用到OPPO、小米等手机中。 从笔者角度来看,该文最大的创新点当属噪声参数参数估计部分的推导,它将噪声可变模型转换成了噪声固定模式,这样就可以做到“一个模型处理不同噪声水平”;当然作者所设计的友好网络架构也是非常有启发性的。 很明显,作者所设计的降噪模型就是一种简单但带残差连接的UNet架构,其中UNet部分包含4个encode以及4个decoder。 ? 为确保降噪模型可以更好的运行在手机,作者采用分离卷积以降低计算量,常规卷积仅在网络的头和尾部应用。 ,该文的主要贡献包含以下几点: 提出了一种传感器相关合成数据制作方案,并用于训练轻量型降噪模型; 提出一种新颖的k-Sigma变换用于将不同ISO设置下的噪声映射到ISO不变信号-噪声空间; 提出一种友好的轻量型模型用于图像降噪

    1.9K30发布于 2020-09-14
  • 来自专栏公共互联网反网络钓鱼(APCN)

    人工智能对智能手机安全的双重影响与防御体系构建

    与此同时,人工智能为移动安全防护提供新型技术路径,可实现短信、通话、网页等场景的实时恶意内容检测与风险阻断。 研究表明,人工智能是抵御高阶钓鱼攻击的可行方案,但需在技术迭代、用户信任、监管适配与生态协同方面形成闭环,方能平衡智能体验与安全底线。 在此背景下,人工智能成为移动安全的重要演进方向。谷歌、三星、苹果等厂商陆续推出基于设备推理的诈骗检测、恶意链接识别、语音欺诈拦截等功能,实现低延迟、高隐私的实时防护。 3 人工智能在智能手机安全中的防御价值与实现路径3.1 智能防御的核心优势低延迟实时防护:本地推理避免云端传输,实现消息接收、通话建立、网页加载瞬间的风险判定。 4 智能反钓鱼系统设计与代码实现4.1 系统整体架构采用分层轻量化架构,适配移动算力与功耗约束:数据接入层:获取短信、通话、网页、通知等内容,遵循权限最小化。

    11110编辑于 2026-04-08
  • 来自专栏AIWalker

    ANTNet|架构,精度速度双超MobileNetV2

    作者通过实验表明:基于ANTBlock构建的ANTNet可以跨数据集取得更优的性能(相比同等计算消耗的网络架构,比如MobileNet与ShuffleNet系列)。 Method 该文的目的在于:设计一种低计算复杂度的架构模块并用于构建高效CNN网络。一般模型的评价采用MAdds、FLOPs以及参数量等指标。 相比MobileNetV2与ShuffleNetV2两大知名模块,所提方法具有更高的精度。 ? 最后给出了ANTNet与MobileNetV2在iphone5s的耗时对比,见下表。注:g=2为默认配置,等同于前述的proposed模型。 ? 全文到此结束,更多实验结果与分析请查看原文。

    1.9K30发布于 2020-08-10
  • 来自专栏机器学习与推荐算法

    当终端智能遇上推荐系统: 推荐系统综述

    嘿,记得给“机器学习与推荐算法”添加星标 TLDR: 本文详细介绍了推荐系统的最新进展情况,具体包括推理与部署、训练与更新以及推荐系统的安全与隐私等部分。 具体来说,如图2中系统概述的那样,现有的推荐系统可以分为三个大类,即端上推理与部署、端上训练与更新以及端上推荐系统的安全与隐私。 训练与更新 训练与更新涉及通过利用本地存储的数据将训练过程转移到设备,如图1(c)所示,从而缓解与数据上传过程相关的安全和隐私问题。此外,局部模型更新可以及时捕捉用户偏好的变化。 推荐系统的安全与隐私 推荐系统的安全与隐私旨在保护用户和设备上的模型免受潜在的恶意攻击,如图1(d)所示。一方面,当本地模型有助于共享学习过程时,存在泄露用户敏感数据的风险。 下文总结了推荐范式存在的隐私和安全问题,具体包括用户行为数据泄露、用户敏感属性泄露以及用户数据的所有权等隐私问题,以及云推荐范式的数据中毒攻击、推荐范式的数据中毒攻击与模型中毒攻击等。

    1.1K10编辑于 2024-02-06
  • 来自专栏AIWalker

    MobileAI2021 图像超分竞赛方案简介

    为解决该问题,我们开展了首届Mobile AI挑战赛,其目标在于:研发一种深度学习图像超分方案且可以在移动或者终端NPUs设备上实时运行。 Challenge 为开发一种高效且使用的任务相关的解决方案,我们需要考虑以下几点: 一个用于训练与评估的大尺度、高质量数据集; 一种无约束检测推理耗时与模型debug的有效方法; 能够定期在目标平台 (移动)设备上测试所开发模型的运行时间。 训练阶段: 图像块、batch=16,Charbonnier损失,Adam优化器,动态学习率从25e-4到1e-4。 模型训练: 图像块,batch=32,L1损失,Adam优化器,初始学习率5e-4,每200epoch折半,合计训练600epoch。

    2.9K30发布于 2021-05-24
领券