首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏WordPress果酱

    WPJAM「内容模板插件」新增标识参数短代码

    WPJAM「内容模板插件」最早的时候,短代码只支持 ID,但是有些同学反馈内容模板多了,ID 记不住,更可怕的时候,由于网站重建,重新导入一下 WP,所有的内容模板 ID 都变了,所有使用了内容模板的文章都得修改 这么一说,貌似内容模板使用标识也有挺有道理,我就升级「内容模板」到版本3.1,在内容模板编辑页面,支持输入标识: 这样内容模板的短代码除了 ID 之外还支持 name 的参数了: 除了这个更新之外之外 TinyMCE 编辑器 添加下划线等按钮,支持截屏贴图等 标题设置 一键设置 WordPress 所有页面的页面标题 登录优化 一键优化 WordPress 登录注册界面,并支持第三方账号登录和绑定 内容模板 通过短代码在内容中插入一段共用的内容模板,并且支持表格。

    1.2K40编辑于 2023-04-14
  • 来自专栏绿盟科技研究通讯

    模型内容安全:敢问路在何方?

    03、NSFOCUS LSAS 由绿盟科技独立开发的模型安全评估系统NSFOCUS LSAS(以下简称LSAS)从两方面对模型输出内容进行安全性、合规性检测: LSAS使用动态提示词对模型进行诱导输出 模型安全性扫描报告(部分) LSAS输出内容安全性检测 绿盟科技针对不同LLM有不同的应用场景特性,在设计初期便使用了多种不同探针以使扫描器能够尽量覆盖更多的实际应用场景,检测LLM的输出内容安全性。 在《检测与防护:模型信息泄露的安全「紧箍」》[8]已经做过介绍。 Snowball 即雪球攻击,用于对LLM的推理能力进行评估检测,并在此基础上对LLM的输出内容进行判断。 模型风险评估 在实际应用检测场景中,绿盟科技LSAS针对现在的多款开源模型进行了扫描检测,其中包含多个有关输出内容安全性的检测。 其结果如下: 模型输出安全性检测结果(自然语言类) 模型输出安全性检测结果(中文探针) 模型输出安全性检测结果(机器语言类) LSAS使用探针中测试用例的通过率作为模型的分数指标,分数在0到1的区间内

    1.6K10编辑于 2024-02-26
  • 来自专栏进击的多媒体开发

    关于模型的一些基础内容

    模型定义: 模型指的是 语言模型(英文:Large Language Model,缩写LLM), 语言模型(LLM)是基于大量数据进行预训练的超大型深度学习模型。 目前有哪些模型: 自从 OpenAI 的 GPT 3.5 模型问世以来,国内外各大公司都发布了自己的模型,真是五花八门,百花齐放!!! 有不少模型都开源的,可以在 https://huggingface.co/models 网站上可以下载对应的模型模型如此之多,如何衡量哪家模型更强? 网上有一些对模型进行打分的评比,贴了一个截止2023年10月的模型评测得分: 快要过去半年了,模型天梯榜早已更新,就在前几天谷歌又发布了全球最强开源模型 Gemma,7B 性能超越 Meta 的 照这个速度卷下去,模型都要变成大白菜了,数据量太少的模型都不能上榜的。 模型的移动端部署 目前模型都还是部署在服务器上,移动端应用通过网络请求来调用相关的服务。

    2.8K10编辑于 2024-02-29
  • 来自专栏Html5知典

    HTML——内容模型

    HTML的内容模型(Content Model)定义了各个HTML元素间可能的包含关系。 概述 HTML4中,HTML元素被被分成inline(内联元素)与block(块级元素)两大类,HTML5放弃了这种分类,重新定义了内容模型(Content Model)并将HTML元素扩展为7类。 文档流型 所有可以放在<body>标签内,构成文档内容的元素均属于文档流型(flow)元素。 区块型 区块型(sectioning)元素是定义页面分区的元素,包括

    2.5K10发布于 2019-11-26
  • 利用 Elastic 优化模型的的成本和内容审核

    在这篇博客中,我们将探讨如何使用 模型 内容过滤和跟踪 模型 的使用成本。 首先,让我们来了解这两个功能能为您做些什么:模型 内容过滤:提升 AI 安全性模型内容过滤在解决 AI 安全性挑战中起着关键作用,帮助减轻由 AI 模型生成的有害或不当内容所带来的风险。 创建 模型 内容过滤器的步骤在设置内容过滤的可观测性之前,请确保您已为模型配置了 Cloud 内容过滤。 理解 模型 内容过滤的预配置仪表板现在您已经设置了过滤器,可以通过 模型 内容过滤仪表板在 Elastic 中查看过滤的内容内容过滤类别: 提供内容过滤类别随时间的见解。查看 模型 计费仪表板您现在可以查看在 模型 上的花费。在此仪表板上,您可以看到:总成本: 测量所有模型部署的总使用成本。

    54921编辑于 2025-05-20
  • 来自专栏存储知识

    深度解析内容生成式AI背后的语言模型

    几个月前以ChatGPT为首的内容生成式AI就已经火得不能再火了,然而,随着本周GPT-4和文心一言的发布,AI在国内外又“火上加火”了一次。 文心语言模型的基础层分为NLP模型、CV模型、跨模态模型、生物计算模型。但可惜的是,发布会上并没有现场演示环节,大众也不能直接使用该产品。 这次的语言模型与现实生活的交集是直接的一对一对话,人们体验感更强,引发的反响更加强烈。 因此,想看清AI爆火背后的机会,真正形成自己的洞见和判断,最好的方法就是先牢牢抓住本次AI浪潮的核心:语言模型语言模型领域内的名词术语很多,看分析文字时,各概念间的逻辑关系也容易混淆。 随着ChatGPT这种语言模型的训练数据和参数量呈指数增长,这些操作需要更多的计算资源和存储资源,这是导致语言模型成本增加在原因。

    1.5K30编辑于 2023-03-16
  • 模型的安全挑战:如何防止AI生成有害内容

    模型的安全挑战:如何防止AI生成有害内容?引言随着生成式人工智能(GAI)模型的迅速发展,其在多个领域的应用展现出了强大的潜力。 然而,这些模型也带来了严重的安全性和伦理问题,尤其是在有害内容生成方面。本文将深入探讨模型的安全挑战,并提供防止AI生成有害内容的策略和代码实例。 模型的安全挑战数据隐私泄露GAI模型在预训练阶段需要海量的数据,一旦这些数据被恶意篡改或污染,将直接影响模型的输出结果,产生严重的安全隐患。 虚假内容生成模型可能生成有害、违法或不道德的内容,如仇恨言论、暴力血腥画面等。此外,模型的生成能力还可能被滥用于制造假新闻以及深度伪造等,对社会安全稳定构成威胁。 内容分类器使用机器学习模型对生成的内容进行分类,识别出可能有害的内容。可以使用预训练的分类模型,如BERT,来判断文本是否包含有害信息。

    1.3K10编辑于 2025-04-07
  • 来自专栏众森企服

    深度解读|人工智能生成合成内容标识办法及标准

    今天,众森企服将对这两项重要文件进行《深度解读|人工智能生成合成内容标识办法及标准》,以帮助公众更好地理解和遵守相关规定。 一、什么是人工智能生成合成内容?为何要标识? 法律要求: 服务提供者必须在文件元数据中添加隐式标识,传播平台需核验元数据中的标识信息。例如,抖音等平台在用户上传内容时,需检测文件元数据是否含隐式标识,若无则提示用户声明内容性质。 这些标识应包含生成合成内容属性信息、服务提供者名称或编码、内容编号等制作要素信息。《办法》鼓励服务提供者采用数字水印等形式的隐式标识。 若元数据中未核验到隐式标识,但用户声明为生成合成内容,也应添加显著提示,提醒公众该内容可能为生成合成内容。 若元数据无隐式标识且用户未声明,但平台检测到显式标识或其他生成痕迹,则应识别为疑似生成合成内容,并添加显著提示。 提供必要的标识功能,并提醒用户主动声明发布内容中是否包含生成合成内容

    2.3K10编辑于 2025-06-04
  • 来自专栏人工智能

    如何解决模型生成内容的准确性问题?

    它们通过引入外部知识库以及后续内容修正步骤,为生成模型注入更多外部信息,从而极大提升生成结果的准确性。检索增强生成技术本质上是将传统检索信息技术与生成模型结合的一种方法。 比如在自动摘要生成任务中,生成模型可能会产生冗余或不连贯的内容,通过后处理技术,可以对摘要进行关键句提取和重复信息删除,使最终输出更加紧凑、条理更加清晰。 此外,后处理模块还能结合专家系统或规则库,对生成内容进行二次审核,从而补充遗漏信息或更正事实错误,显著提升整体生成质量。在构建 RAG 模型时,通常涉及两核心模块:检索模块与生成模块。 后处理模块的设计上,可以引入基于规则的校验方法和机器学习模型相结合的策略,对生成内容进行多层次评估和修正。 此过程中,模型的温度、top-k、top-p 等采样策略参数设置将直接影响生成内容的创新性与精确性。高温度可能使生成内容过于随机,导致准确性降低;低温度则可能使输出缺乏多样性。

    1.4K21编辑于 2025-03-07
  • 来自专栏架构精进之路

    模型重复生成内容:根因剖析与优化策略

    AI 内容学习,持续更新,欢迎关注~ 前言 最近在调试模型应用过程中,遇到了如下问题: 当用户输入指令:“请生成 10 个天气相关的英语单词” 模型首次生成内容与「重新生成」两次返回的内容近乎完全相同 本文来跟大家一起学习探索下~ 一、重复生成的根源探析 要解决重复问题,需先理解其输入与模型处理机制。 模型建模概率一般是一个条件概率: p(xt|x1,x2,... ,xt−1) 即 模型通过前 t-1 个 token 作为条件,来预测第 t 个 token 的是哪一个。 二、重复输出现象 在生成式模型的应用中,内容重复输出的问题可以从不同层级进行分析。 解决重复生成问题本质:在模型创造性与稳定性间寻找动态平衡。随着认知建模技术的进步,我们正在从"避免重复"走向"智能重复",让模型的输出既保持连贯性,又充满意料之外的智慧闪光。

    2K10编辑于 2025-04-22
  • 来自专栏wujunmin

    自动合并工作簿并提取指定内容作为唯一标识

    我们工作中可能会遇到类似这样的电子表格:最前面几行表明该表的关键信息,例如这份虚拟的电子装箱单有收货方、地址、预计到货日期等等;表头下方是明细内容,本次发货有几箱,每箱装了什么产品,产品数量多少(每箱重量信息也应该包含 单击Content右侧的按钮,系统自动进行处理,生成两部分内容。一部分是自定义函数,对样表进行处理;另外一部分是调用自定义函数合并的所有文件,如下图所示。 删除前5行 将第一行用作标题 一个新的问题产生,这张表没有收货方标识列,合并后会所有产品混到一起。

    1.1K20发布于 2021-09-07
  • 通过备案后内容标识添加了吗?

    一、什么是显式标识?什么是隐式标识?显式标识和隐式标识出自《人工智能生成合成内容标识办法》,其分别是指可被用户明显感知与不易被用户明显感知到的人工智能生成合成内容标识。 显式标识:是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可以被用户明显感知到的标识。隐式标识:是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。 通常需在文件元数据中添加,包含生成合成内容属性信息、服务提供者名称或者编码、内容编号等制作要素信息。同时,鼓励服务提供者采用添加数字水印等形式,来添加隐式标识。二、内容标识应包含哪些信息? 当提供网络信息内容传播服务的服务提供者核验到隐式标识,或其检测到显式标识、用户声明内容为生成合成内容等情形时,还应当在文件元数据中添加传播平台名称或者编码、内容编号等传播要素信息。 三、内容标识的添加位置(1)显式标识的添加位置(按内容类型划分)显式标识需以文字、声音、图形等用户可直接感知的形式呈现,位置需 “显著且不破坏内容核心体验”文本类内容可在文本的起始位置、末尾位置,或在内容段落间的

    82510编辑于 2025-08-25
  • 来自专栏云云众生s

    内容中心知识图谱与语言模型的深度整合

    使用 大型语言模型 (LLM) 提取知识图谱既耗时又容易出错。这些困难源于 LLM 被要求从内容中提取细粒度的、特定于实体的信息。 受 向量搜索优势 的启发,特别是从相对较少清理的内容中获取良好结果的能力,让我们探索一个粗粒度的 知识图谱——内容知识图谱——专注于内容之间的关系。 如果您想直接开始,也可以 查看此笔记本。 ,以及 在更改知识模式时重新处理所有内容。 有没有办法将向量搜索的优势引入知识图谱——具体来说,使构建像分块和嵌入内容一样容易,同时保留原始内容,直到 LLM 知道要回答的问题? 以内容为中心的知识图谱 如果我们从代表内容(例如文本块)而不是细粒度概念或实体的节点开始,则图的节点正是使用向量搜索时存储的内容。节点可以代表特定的文本段落、图像或表格、文档的一部分或其他信息。

    46710编辑于 2024-06-22
  • 来自专栏公共互联网反网络钓鱼(APCN)

    基于语言模型的反钓鱼培训内容生成与效果评估

    本文基于意大利巴里大学开展的两阶段对照实验(总样本量480人),系统评估由语言模型(LLM)生成的反钓鱼培训内容在提升用户识别能力方面的有效性。 关键词:语言模型;反钓鱼培训;用户安全意识;提示工程;人因安全;生成式AI1 引言尽管技术防护手段不断演进,钓鱼攻击仍持续作为网络入侵的主要入口。 近年来,语言模型(Large Language Models, LLMs)在文本生成、情境模拟和个性化交互方面展现出强大能力。 这表明,复杂的提示结构未必带来收益,轻量级用户画像嵌入已足够引导模型生成有效内容。 6 结论本研究通过严谨的对照实验,验证了语言模型在反钓鱼用户培训中的有效性。结果显示,AI生成内容能显著提升用户对高仿真钓鱼邮件的识别能力,且无需复杂个性化策略即可实现良好效果。

    20910编辑于 2025-12-25
  • 腾讯司晓:模型时代,内容产业智变新浪潮

    在5月27日闭幕的第二十一届中国(深圳)国际文化产业博览交易会上,腾讯集团副总裁、腾讯研究院院长司晓以《模型时代文化内容生产的范式革命》为题发表主旨演讲,系统阐述了模型技术对文化内容生产、传播及产业生态的颠覆性变革 他指出,模型已从“工具赋能”跃升为“生态重构”,推动文化内容产业从“专业主导”向“全民共创”跨越,并加速文化传承与创新的深度融合。以下是司晓的演讲内容整理。 来源:腾讯研究院行业大模型报告多模态突破:内容生产从"单一维度"迈向"全感官沉浸"多模态模型技术持续突破,生成效率与质量显著提升。 艺术家们基于“琴乐模型”生成的音乐内容进行二次创作,同时帮助模型改进算法,使擅长西方乐理的模型更加理解民乐独特构成方式,实现生成内容从形似到神似的跨越。 但在教育、医学等大量实际场景中,我们仍然希望模型提供的内容无限接近“100%”可信。为探索这一问题的解决方案,腾讯与多家出版机构开展合作,增加文化资源和可信模型的双向互动。

    41210编辑于 2025-06-03
  • 来自专栏创作是最好的自我投资

    通用模型VS垂直模型

    在人工智能这个充满无限可能的领域内,通用模型和垂直模型各有千秋。就我个人而言,在二者之间的选择上,并不存在偏向某一方的倾向。我觉得应当依据实际应用场景的具体需求,来挑选最为契合的模型。 通用模型通用模型,乃是旨在应对多种任务与数据类型的庞然物级人工智能模型。 更为厉害的是,它能够驾驭多种数据类型,无论是文本这种富含语义信息的类型,图像这种视觉性的内容,还是声音这种带有听觉特征的类型,通用模型都能游刃有余地处理,进而实现对不同模态数据跨模态的理解与生成。 在知识覆盖的广度方面,通用模型无疑具有明显的优势。当我们对于当下所需模型所涉及的精确专业领域的界限感到模糊不清时,选择通用模型无疑是一种明智之举。垂直模型接下来谈谈垂直模型。 然而,由于垂直模型的训练内容聚焦于当前行业,其涉猎的范围更集中,数据针对性更强,所以在提供专业咨询时往往更加精准、细致,这也正是垂直模型的独特价值所在。

    76201编辑于 2024-12-30
  • 来自专栏小洁叫你mysql

    【AI模型】训练Al模型

    模型超越AI 目前所指的模型,是“大规模深度学习模型”的简称,指具有大量参数和复杂结构的机器学习模型,可以处理大规模的数据和复杂的问题,多应用于自然语言处理、计算机视觉、语音识别等领域。 本文将探讨模型的概念、训练技术和应用领域,以及与模型相关的挑战和未来发展方向。 模型是指具有庞大参数数量的机器学习模型。传统的机器学习模型通常只有几百或几千个参数,而模型则可能拥有数亿或数十亿个参数。 训练模型的挑战 训练模型需要应对一系列挑战,包括: 以下是与模型相关的一些代码示例: 计算资源需求: import tensorflow as tf # 指定使用GPU进行训练 with tf.device 更智能的模型压缩技术:模型压缩和加速技术将继续发展,以减小模型的计算和存储开销。 更好的计算平台支持:为了支持训练和部署模型,计算平台将继续改进,提供更强大的计算资源和工具。

    1.5K30编辑于 2023-10-10
  • 来自专栏学习

    开源模型与闭源模型

    在人工智能(AI)和机器学习(ML)的快速发展过程中,模型(Large Models)已经成为推动技术进步的重要力量。当前,业界存在两种主要的模型开发模式:开源模型和闭源模型。 一、开源模型 开源模型是指开发者将模型的代码和训练数据公开,使得任何人都可以访问、修改和使用这些资源。 二、闭源模型 闭源模型是指模型的代码和数据不对外公开,通常由商业公司开发和维护。代表性的闭源模型包括OpenAI的GPT-3和Google的BERT。 三、开源模型与闭源模型的对比 1.透明性与可控性: 开源模型的透明性更高,任何人都可以查看和验证其代码和数据,确保模型的行为符合预期。这对于学术研究和技术验证非常重要。 闭源模型通过控制代码和数据的访问,能够更好地保护用户隐私和数据安全,降低被恶意利用的风险。 五、总结 开源模型和闭源模型各有优缺点,适合不同的应用场景和需求。

    1.7K10编辑于 2024-10-09
  • 来自专栏数据派THU

    原创 | 模型扫盲系列——初识模型

    “生成”简单来说就是根据给定内容,预测和输出接下来对应内容的能力。比如最直观的例子就是成语接龙,可以把语言模型想象成成语接龙功能的智能版本,也就是根据最后一个字输出接下来一段文章或者一个句子。 2)教育知识类产品:得益于模型强大的理解以及知识储备,很多公司也嵌入其知识类产品进行应用,比如chatPDF就可以帮助经常看论文的科研人员快速地通过问答的方式进行文章的信息提取,理解以及总结重要内容, 4)搜索引擎和推荐系统:模型可以应用于企业的搜索引擎和推荐系统,通过深度学习算法,对用户的搜索意图进行准确理解,提供更精准的搜索结果和个性化的推荐内容。 3.无法保障内容可信:模型会编造词句,无法保障内容真实可信、有据可查。当前使用者只能根据自己需求去验证生成的内容是否真实可信,很难具有权威说服力。 有原创标识文章,请发送【文章名称-待授权公众号名称及ID】至联系邮箱,申请白名单授权并按要求编辑。 未经许可的转载以及改编者,我们将依法追究其法律责任。 点击“阅读原文”加入组织~

    21.2K29编辑于 2023-11-22
  • 来自专栏IT从业者张某某

    模型模型的幻觉问题

    参考 模型中的涌现 OpenAI 科学家:幻觉是模型与生俱来的特性,而非缺陷 模型「幻觉」,看这一篇就够了|哈工大华为出品 模型 什么是模型 语言模型(LLM)是基于海量文本数据训练的深度学习模型 关于instruction tuning和CoT,也是值得讲的内容,后面看有没有机会分享这些方面的内容。 涌现,是复杂科学下的一个概念。 复杂科学 什么是复杂科学? 如何解决模型的「幻觉」问题? 方向一:什么是模型「幻觉」 模型出现幻觉,简而言之就是“胡说八道”。 用文中的话来讲,是指模型生成的内容与现实世界事实或用户输入不一致的现象。 △左,事实性幻觉;右,忠实性幻觉 事实性幻觉,是指模型生成的内容与可验证的现实世界事实不一致。 比如问模型“第一个在月球上行走的人是谁?” 忠实性幻觉,则是指模型生成的内容与用户的指令或上下文不一致。 比如让模型总结今年10月的新闻,结果模型却在说2006年10月的事。

    1.8K11编辑于 2024-01-04
领券