在分析阶段,FreeControl 查询 T2I 模型生成低至一个种子图像,然后根据生成的图像构建线性特征子空间。 通过注意力和卷积特征注入进行图像到图像转换的免训练方法 ControlNet 等最新方法为用户提供了对文本到图像 (T2I) 扩散模型的细粒度空间控制。 在这项工作中,我们提出了 FreeControl,这是一种用于可控 T2I 生成的免培训方法,可同时支持多个条件、架构和检查点。 特别是,FreeControl 有助于方便地对许多不同的架构和检查点进行免训练控制,允许大多数现有免训练方法无法满足的具有挑战性的输入条件,并通过基于训练的方法实现有竞争力的综合质量。 我们无需训练的FreeControl始终如一地生成适合中等身材的高质量图像- 结论: 我们提出了FreeControl,这是一种用于在许多条件下对任何T2I扩散模型进行空间控制的无训练方法。
不过,由于加密算法和密钥都是硬编码的,想靠加密算法如des、ase、rc4等免杀很难,它们可能会存在被杀软检测并逆推还原出原shellcode等问题。 为了提高静态免杀能力,可以在运行代码时动态生成key,而不是在代码中硬编码它。 02 原理 动态生成key的原理是利用外部运行环境点作为加密算法的key。 编译器(需要自行安装),重新对前面的几个环境点进行了测试,切换intel C++编译器后均过卡巴静态加动态且扫描很快,没有出现像vs默认的编译器一直卡住的情况: 然后上传了VT测试,静态全过: 不使用动态生成 key,明文密钥,使用intel c++编译,VT: 05 总结 使用动态生成key静态免杀效果良好。 使用intel c++编译免杀效果良好,但是安装麻烦,占内存 锦鲤安全 一个安全技术学习与工具分享平台 点分享 点收藏 点点赞 点在看
研究背景以及目的 借助日益强大的预训练语言模型,我们已经可以根据文本前缀生成一段流利文本。当前,绝大多数工作的主要研究方向集中于利用文本模态的前缀来生成后续文本的方法。 然而,如何有效利用其他模态的信息(例如图片)来指导预训练语言模型生成高质量的文本,仍然是一个待解决的难题。 例如,我们可以在图文匹配的标注数据集上,通过监督学习的方法训练 image captioning 模型,从而根据输入图片生成对应的文本描述。 这样,语言模型可以在不经过任何跨模态训练的情况下,高质量地解决跨模态生成任务,得到明显优于弱监督模型的文本生成质量。同时,与 ZeroCap 相比,MAGIC 还拥有接近 27 倍的推理速度提升。 MAGIC 使用视觉信息指导预训练语言模型的生成过程。
该框架可以使用图片模态的信息指导预训练语言模型完成一系列跨模态生成任务,例如 image captioning 和 visually grounded story generation。 当前,绝大多数工作的主要研究方向集中于利用文本模态的前缀来生成后续文本的方法。然而,如何有效利用其他模态的信息(例如图片)来指导预训练语言模型生成高质量的文本,仍然是一个待解决的难题。 例如,我们可以在图文匹配的标注数据集上,通过监督学习的方法训练 image captioning 模型,从而根据输入图片生成对应的文本描述。 这样,语言模型可以在不经过任何跨模态训练的情况下,高质量地解决跨模态生成任务,得到明显优于弱监督模型的文本生成质量。同时,与 ZeroCap 相比,MAGIC 还拥有接近 27 倍的推理速度提升。 MAGIC 使用视觉信息指导预训练语言模型的生成过程。
项目介绍 助力每一位RT队员,快速生成免杀木马 开发需求 在HW/攻防演练等场景下需要快速生成免杀木马并且保证文件md5都不一样 节约时间,不用在项目上,投入专门的人员进行代码编写 高度可拓展和自定义 增强完善了反沙箱、反调试 上线方式 x64位: x32位: 使用方式 Step 1:加密Shellcode,选择Stagerless,生成RAW格式 Step 2:生成的beacon.bin放入程序目录下然后运行命令加密 ,AES key可以自定义(256bit) encbin.exe bin文件 AES key 3、将P.bmp上传至云端生成链接,链接必须是访问后,自动下载那种。 4、URL填入,AES key填入,选择模板生成即可 免杀效果 卡巴斯基: Norton: 启发式查杀很厉害,需要给木马加入正常程序的图标、版本信息、清单、数字签名。 火绒+金山 McAfee 单个免杀效果 部分杀软需要添加白程序的签名、版权信息等,如Norton、360、Symantec APC-Injetc+Ntdll bypass:金山(数字签名)、火绒、ESET
总结而言,Personalize Anything 的特点如下: 高效的免训练框架:无需训练,具备较高的计算效率,仅需一次反演(inversion)和一次推理过程 高保真度与可控性:在保持高精度细节的同时兼顾了物体姿态的多样性 技术突破:从 DiT 架构的新发现到个性化任意内容 个性化图像生成的传统方法通常需要对定制概念进行微调,或者在大规模数据集上进行预训练,这不仅消耗大量计算资源,还影响模型的泛化能力。 注意力共享机制不适用于 DiT 架构 在了解 Personalize Anything 技术细节前,先来看看为什么传统无需训练的方法不能够应用在 DiT 架构的图像生成模型上。 如上文所述,传统无需训练的方法多通过注意力共享机制,也就是在运算自注意力时,将概念图像特征直接与生成图像特征进行拼接,但是经由团队实验发现,对于 DiT 架构而言,由于位置编码的影响,当去噪图像和参考图像共用同一套位置编码时 单物体个性化生成 多物体组合生成 物体 - 场景组合 未来展望 Personalize Anything 研究团队揭示了 DiT 中位置解耦表示的性质,为免训练的图像空间操纵、个性化生成奠定基础。
工具简介 一款红队专用免杀木马生成器,该工具可以通过红队人员提供的一段 shellcode 快速生成一个绕过所有杀软的可执行木马。 特点 基于Syscall进行免杀,且随机混淆,可过几乎所有杀软 内置go-strip对Go生成的木马进行编译信息抹除与程序信息混淆 工具本体只有1个exe,搭配Go环境即可直接使用 工具使用 下载二进制文件 ,并且在系统上安装Go语言环境,然后将shellcode保存到1个txt文件中,即可使用本工具生成免杀马。 Usage of CuiRi.exe: -f string 通过shellcode生成免杀马 -manual 查看shellcode生成方法 支持的 shellcode 格式分为以下两种 shellcode (2) 生成免杀马 (3) 免杀效果
Rustloader免杀生成器 开发背景 由于近年来go用来做免杀器越来越普遍,导致杀软对go编译程序静态查杀力度增大,因此转型投入rust的怀抱 说实话,rust的语法是真难懂,边改边查参考github 使用NtQueueApcThreadEx执行SHELLCODE 使用方式 和我之前开发的go千机一样,一样是一键化生成,别问,问就是为了最大化的简便,目录结构如下 解压打开文件目录,把 beacon_x64 .bin 放置在当前目录下,点击 一键生成.bat 输出免杀文件在 output 文件夹下,随机六位数命名 捆绑文件选择 捆绑文件存放在 bundle 文件夹下,默认放置打开损坏文档 如果不需要捆绑文件 lto = true codegen-units = 1 debug = false panic = "abort" 程序图标选择 在 static 目录下放置了四个常见图标,可修改对应名称进行调用 免杀性能测试
【模型免训练高效集成】DINOv2 + SAM 2 当目标检测遇上图像分割,AI 视觉正迎来一场静悄悄的革命。 引言 在人工智能尤其是计算机视觉迅猛发展的当下,我们正见证着一个又一个技术奇迹的诞生。 一网打尽:同一套架构同时处理图像和视频,无需切换模型 记忆大师:通过内置记忆库,保持视频分割的前后一致性 多才多艺:无论是点、框、掩码还是文本描述,都能理解并作出反应 DINOv2 + SAM 2:免训练的完美组合 DINOv2 提取的丰富特征直接作为 SAM 2 的输入,为分割提供深层的语义信息: 高效推理流程 特征提取:DINOv2 对输入图像提取多尺度特征 提示编码:用户提供的提示(点、框等)被编码为分割引导 分割生成 :SAM 2 基于 DINOv2 特征和提示生成精确掩码 后处理优化:可选的后处理步骤进一步优化分割结果 实际应用场景 自动驾驶:更安全的未来之眼 在自动驾驶领域,DINOv2 + SAM 2 的免训练特性让车辆能够快速适应新环境 :生产线上的火眼金睛 在制造业中,这套系统的免训练特性特别有价值: 性能表现 开箱即用的卓越效果 在多个标准数据集上的测试表明,这种免训练组合依然表现优异: 数据集 检测准确率 (mAP@0.5) 分割质量
首先使用DINOv2模型从所有训练图像中提取CLS token表示。然后,应用与Patchcore相同的贪心核心选择方法,将这些特征向量分组为16个集群。 通过评估每个空间位置的相似性,为每个级别生成一个异常映射。最后,这些异常映射被平均并上采样到原始分辨率,以生成最终的异常分割图。 方法训练与数据集评估 SUPERAD方法不需要训练。 对于MVTec AD 2数据集中的每个类别,我们使用训练集中的样本构建少量正常参考图像的特征记忆库。参考样本的数量固定为16。 我们采用预训练的DINOv2 ViT-L-14模型作为特征提取器,该模型包含24层变压器和约3亿个参数。从四个特定的层次中提取特征(6、12、18、24)生成最终的异常分割Map。
本文介绍Linux系统生成私钥和公钥进行免密连接,内容比较简单,阅读需要3分钟。 1.大致流程 有时需要从服务器A免密连接到服务器B,这时需要在服务器A生成私钥和公钥,大致过程其实就2步。 1.1 在服务器A生成公钥和私钥 在服务器A上输入如下命令: ssh-keygen -t rsa 过程中按三次回车,执行结束如下图: ? 1.2 在服务器B配置服务器A生成的公钥 打开服务器B,将刚刚在服务器A内复制的内容追加到/root/.ssh/authorized_keys内,到这里没有特殊情况就配置成功了。 1.3 意外情况 可能设置完成后还是无法免密登录,那么可以远程连接时加入-vvv在登录时打印日志信息,如下 ssh root@47.98.109.195 -vvv 在配置的时候遇到过权限不足,在服务器B 上将authorized_keys赋予权限 chmod 700 /root/.ssh/authorized_keys 2 总结 大致过程很简单,也没遇到什么神奇的坑,主要用于结合jenkins免密登录发布
在拿到一枚shell后,我们必须要做好权限维持,如果目标主机上有AV的话,我们一定要做好免杀处理,不能被发现!宁可不攻击也不要被发现,所以免杀是在内网渗透过程中最关键的一步! 今天分享一个绕过某60的免杀技巧,总结就是:只要会代码,免杀随便绕! Metasploit 生成 C 过免杀 360 Metasploit Msf 相比大家都看过我直接写的笔记,大家也都会使用,这里也不一一细讲,直接上操作: 首先使用MSF的shikata_ga_nai 然后使用 VC 编译(我用的是 VC 2019): #include <stdio.h> #include <windows.h> unsigned const char payload[] = "这里是生成的
项目介绍 ByPassBehinder / 冰蝎WebShell免杀生成 文件:ByPassBehinder.exe MD5 HASH:04caea5648786157fb65dd51d2bc061e 工具使用 使用者无需关心免杀实现,只需要在Windows x64位系统运行即可,命令行输入:ByPassBehinder.exe 目前支持格式为常见WebShell全版本格式:ASP,ASP.NET,PHP ,JSP,JSPX,输入对应的编号即可生成,默认密码为Tas9er 免杀测试 腾讯电脑管家: 【扫描信息】 扫描用时:00:00:06 扫描类型:指定位置杀毒 扫描引擎:管家云查杀引擎 管家系统反病毒引擎
在众多的攻击方式中,钓鱼文档攻击仍然扮演者重要的地位,而随着各类安全防护设备的成熟,宏免杀一直是我们所讨论的问题,之前有MacroPack(收费版仍然好用)可以生成免杀宏文档,但特征已被标记,今天介绍的这款工具则仍然效果很好 地址如下:https://github.com/Inf0secRabbit/BadAssMacros 先来看一下免杀效果: 目前具有的功能如下: Classic VBA shellcode path_to_raw_shellcode_file> -w <doc/excel> -p no -s classic -c <caesar_shift_value> -o <path_to_output_file> 生成的宏代码如下
论文信息 题目:Knowledge Bridger: Towards Training-Free Missing Modality Completion 知识桥接器:迈向免训练的缺失模态补全 作者:Guanzhou :论文提出了名为“知识桥接器(Knowledge Bridger)”的免训练框架,该框架借助大型多模态模型(LMM),自动从可用模态中提取多模态知识,进而实现缺失模态的生成和补全结果的排序。 为解决此问题,作者提出了一种基于大型多模态模型(LMM)的免训练缺失模态补全框架。作者的方法被称为“知识桥接器(Knowledge Bridger)”,它与模态无关,集成了缺失模态的生成和排序功能。 方法 2.1 概述 作者的目标是借助预训练的LMM构建一个免训练的MMC流程。该流程从可用模态中提取知识并进行建模,随后利用这些知识生成缺失模态数据,并从生成的候选结果中选择最合适的补全。 在免训练的背景下,预定义这些元素尤为困难。 为克服这一问题,作者开发了一种使用LMM的自动实体和关系挖掘策略。
项目介绍 Windows通用免杀shellcode生成器,能够绕过Microsoft Defender、360、火绒、Panda等杀软的查杀 功能特点 开发环境:加载器模板通过QT实现使用C++开发,并由 截至发布时间,该项目免杀国内外主流杀毒软件; 使用方法:使用vs2022打开项目解决方案(.sln),然后进行编译即可。 ShellQMaker.exe将不同的shellcode写入加载的模板文件(loading.exe)中,生成不同的可执行文件 使用方法 执行ShellQMaker查看帮助: 获取payload.bin文件 ShellQMaker (你的shellcode) (生成的可执行文件) 最终生成的可执行免杀程序 免杀结果 Bypass 360: Bypass 火绒: Microsoft Defender 迈克菲
MASS产生的背景,是在BERT取得重大关注后,发现BERT并不适用于生成式任务之后。 中的预测token改为了预测fragment(连续片段),同时采取了整个sequence-to-sequence modeling,取代了BERT仅仅使用encoder作为建模的做法,使得MASS更加适合生成式的任务 MASS预训练框架 ? 图中的"_"指的是[MASK],可以看到,在encoder端被mask掉的连续片段x3-x6,在decoder端作为目标输出。 用公式表达其训练目标为: ? MASS和其他预训练方法的对比 [下游任务: 低资源Machine Translation] ? 可以看出,在相同的平行数据量的情况下,使用MASS预训练的参数进行初始化,明显高于直接训练的baseline。 3. 分析 [关于k的取值] ?
工具开发-红队免杀木马自动生成器 开发目的 在攻防对抗中,免杀木马是使用频率最高的东西,但是制作起来需要耗费大量时间精力,重复性工作会让人产生疲惫和厌烦 于是我决定开发一款全自动的工具,只需要双击鼠标便可以生成免杀马 linker: exec: "garble": executable file not found in %PATH% 使用方法 我这个人比较喜欢简便,因此设计开发工具时不想添加cmd运行命令和参数,主打一键化生成 更适合脚本小子宝宝的体质 文件hash 47459d679f1497fc3c5681a51cf52406 自写工具安全无后门,如被杀为杀软误报,不放心可放至虚拟机进行使用 1、cobaltstrike都有吧,生成 stageless的raw格式文件,把beacon.bin放到和生成器同一目录下,别改名字不然会生成失败 2、双击运行,不需要多余的操作,等待木马生成,成功会在当前目录下生成随机六位数的exe木马文件 免杀效果 添加反沙箱可到VT 3 defender 火绒 360
很多人曾经尝试将 BERT 等预训练语言模型应用于文本生成任务(Natural Language Generation),然而结果并不理想。究其原因,是在于预训练阶段和下游任务阶段的差异。 BART这篇文章提出的是一种符合生成任务的预训练方法,BART的全称是Bidirectional and Auto-Regressive Transformers,顾名思义,就是兼具上下文语境信息和自回归特性的 Sequence Generation Task 由于BART本身就是在sequence-to-sequence的基础上构建并且预训练的,它天然比较适合做序列生成的任务,比如概括性的问答,文本摘要,机器翻译等 XSum: 新闻摘要生成任务 ConvAI2: 对话生成任务 CNN/DM:摘要生成任务 3.1 结论 不同预训练方法各有千秋,在不同下游任务上的效果差异很大:比如说Language Model在ELI5 Left-to-Right Pretraining会提升生成任务的效果:和Masked Language Model和Permuted Language Model相比,包含Left-to-Right预训练的模型在生成任务上表现更好
代码生成——将自然语言描述自动转换为计算机代码——是大语言模型(LLMs)最具前景的应用之一。但随着编程任务复杂度提升,LLMs的出错概率也随之增加。 在2024年神经信息处理系统大会(NeurIPS)上发表的论文中,研究者提出了一种新方法,通过同时训练LLMs的调试能力来提升代码生成质量。 为解决调试训练数据稀缺问题,研究团队利用LLMs生成高质量合成数据:从现有代码生成数据集中提取自然语言提示生成多组存在缺陷的代码实现(保留未通过单元测试的样本)要求LLMs结合错误信息诊断缺陷原因基于诊断结果生成修正后的代码 (仅保留通过测试的版本)关键技术链式思维推理:要求模型先解释修复思路再生成代码混合奖励函数:结合单元测试结果(离散)与CodeBLEU评分(连续)两阶段训练:SFT确保基础能力,RL优化调试策略实验结果在 StarCoder-15B、CodeLlama-7B等模型上的测试显示:调试环节使代码通过率(pass@k)最高提升39%SFT+RL组合效果优于纯SFT方案基于单元测试的训练效果优于仅使用规范示例该方案为代码生成模型提供了可扩展的自我优化路径