市场,是一个很古老的概念了,至少已经有三四千年以上的历史了。较早的关于市场的记录是在古埃及时期,公元前两千多年之前,就已经有“Bazar”这个概念了,汉语里面也留下了它音译的痕迹——“巴扎”。直到现在,在新疆少数民族聚居区仍然在使用这个词汇作为“集市”的用词概念。
前言: 我们在日常维护数据库的时候,经常会遇到查询慢的语句,这时候一般会通过执行EXPLAIN去查看它的执行计划,但是执行计划往往只给我们带来了最基础的分析信息,比如是否有使用索引,还有一些其他供我们分析的信息 ,这时候我们就可以开启optimizer_trace跟踪分析MySQL具体是怎么选择出最优的执行计划的。 如果查询中存在range扫描的话,对range扫描进行计划分析及代价估算。 table_scan:全表扫描的行数(rows)以及所需要的代价(cost)。 potential_range_indexes:该阶段会列出表中所有的索引并分析其是否可用,并且还会列出索引中可用的列字段。 analyzing_range_alternatives :分析可选方案的代价。 } considered_execution_plans{ :对比各可行计划的代价,选择相对最优的执行计划。
传统的投资组合收益与风险分析集中在两个关键统计量上:均值和方差。均值是指投资组合的期望收益率,是组合中所有投资产品的收益率加权平均;方差指的是投资组合收益率的方差,用以刻画收益率的变化和风险程度。 计算机和模拟技术可以放宽投资组合理论中的假设约束,使得分析对象与现实更加接近。 假设一个投资者有初始投资资金200万元,经过分析,他选择了4个投资产品:大盘股、小盘股、国际股和政府债券,每个投资产品的期望收益率和收益标准差如下图: ? 2、计算2022年该投资组合的期末余额。 3、优化投资组合,使得收益率最大。 4、在收益率标准差小于等于1.5%的条件下优化投资组合,使得收益率最大。 上图展示了投资组合回报分析的完整模型。 下面将说明上述5个问题的解决方法: 问题1:“计算该投资组合收益率的均值和标准差”。
模型量化对计算受限和内存受限的场景是否都有收益?如何使用工具在量化前和量化后进行性能瓶颈分析,指导模型后续的优化策略? 围绕以上问题,本文主要介绍: 1)Roofline 模型定义和绘制方法 2)如何使用Roofline分析模型量化前后性能瓶颈 3)针对模型在不同的受限场景给出优化策略。 2,量化的核心机制 模型量化后,提高推理性能的核心原因为:减少内存访问开销并改变计算任务的资源瓶颈类型,这一过程可通过Roofline 模型的框架清晰解释。 • 量化后,KV 缓存的存储与搬运量减少(如 FP16→INT8 压缩 2 倍),算术强度提升,内存瓶颈缓解,解码速度显著加快。 场景 2:量化后从内存受限转为计算受限 条件:量化前算术强度AI低于临界值(内存受限),量化后 算术强度AI超过临界值(转为计算受限)。
PG 向量化引擎--2 向量化引擎是OLAP数据库提升性能的有效技术。翻到PostgreSQL邮件列表有对向量化引擎的讨论。这里继续进行整理,以作分析。 对于Int32,此区域大小时4*BATCHSIZE,而对于Int16,大小时2*BATCHSIZE。所以使用原生数据可以只做一个memcpy来填充vtype的batch。 2、为什么VectorTupleSlot中包含元组的数据(batch)而不是向量(vtype的数组)? 我们是否可以得出结论,对于OLAP查询使用向量化引擎,对于OLTP查询使用行引擎会更好。 5、对于不能向量化的查询捕获并抛出异常不是处理此类情况最安全和最有效的方法。 花费的时间比预期要长:executor代码中很多东西都发生了改变: par.warkers PG9_6矢量化=关闭 PG9_6矢量化=开启 主矢量化=关闭jit=打开 主矢量化=关闭jit=关闭 主矢量化
量化分析因子研究 前言 所谓的因子也就是某个衡量标准,选择不同的因子作为选股的参考,往往会得到不同的结果,本文简单介绍了一些因子以及它所表示的意义。 / 平均总资产 资产报酬率是衡量公司是否能够有效利用总资金的指标 总资产报酬率越高,表明资产利用效率越高,说明企业在增加收入、节约资金使用等方面取得了良好的效果;该指标越低,说明企业资产利用效率低,应分析差异原因
量化分析就是将一些不具体,模糊的因素用具体的数据来表示,从而达到分析比较的目的。 ? 1. 从数据到模型,通过拟合等方式建立模型。具有明显科学背景的问题多以此为基础。 2. 4.由工业问题跟而直接建立的模型,量化大多是模型的解或者内体现出结论的相关变量的图片。 ? ? ? 对不起,今天太多事情.随便写一篇.文章没有意思.各位晚安
概述 和Python计算环境中的tushare包一样,在R中我们使用quantmod包接入第三方数据源,实现自定义量化分析平台的构建。 本文打算以陌陌的股票分析为背景,介绍如何通过quantmod包构建专属的量化分析平台。 什么是quantmod quantmod就是提供给宽客们使用的专业模块,Quantmod本身提供强大的数据接入能力,默认是雅虎财经的数据源,此外quantmod还以绘制专业的行情分析图表以及各种技术指标计算等功能著称 "MOMO"),up.col='red',dn.col='green',TA="addVo(); addADX();addMACD(); addSMA(n=10);addBBands(n=14,sd=2, 原理 分析底层数据结构后,我们知道quantmod包读取后的数据格式是 xts 和 zoo,我们只需要将csv文件按一定的格式读取到内存后再进行相应变换,quantmod强大的分析和作图能力就可以为我们所用
我投的基本都是量化岗,到现在3/20的通过率,总之很艰难。 因此E(k) = 2^(k+1) - 2,这样,E(4) = 30 ? 再举一个例子 ? 有一楼梯共m级,刚开始时你在第一级,若每次只能跨上一级或二级,要走上第m级,共有多少走法? 还是刚才的逻辑,假设走k级有f(k)种走法,显然f(1)=1,f(2)=2,如果第一次走了1级,剩下k-1级有f(k-1)种走法,如果第一次走了两级,剩下k-2级有f(k-2)种走法,即f(k)=f(k -1)+f(k-2)。 ,但速度会快很多,代码如下 def f(x): if x ==1: y = 1 elif x ==2: y = 2 else: s
依旧,先贴一下目录: ├── README ├── MyQuant_v1 #量化分析程序目录 ├── __init__.py ├── data #数据处理目录 │ ├── __init 一些其他的指标就略了…… 2 关于接下来的内容 挑比较不能省略的步骤来写,至少有数据可以完成回测,于是需要一个买卖策略。 如果有对代码不感兴趣,但是对量化分析感兴趣的童鞋,可以去现成的量化分析平台模拟,比如JoinQuant聚宽量化交易平台,直接使用平台上现成的指标,组合一个自己想要的策略,然后进行回测。
也没啥好总结的,目录如下: 1 最后再贴一次框架目录 ├── MyQuant_v1 #量化分析程序目录 ├── __init__.py ├── data #数据处理目录 │ ├─ 然后跟沪深300的净值进行比对,得到一个对比曲线图,于是,大功告成,有了对比就知道策略的好坏了 2 stock_pool_strategy.py #! 总之,要做一个量化分析的项目,需要花费大量的精力时间去建模,不断的修正完善,有很多问题要实战起来,才会发现,哇靠,这么复杂!!! 至于,沪深300与策略收益曲线对比图呢,一把辛酸泪?! 收尾阶段碰到一个难以解决的异常,就是使用matplotlib模块时,抛出一个异常: Intel MKL FATAL ERROR: Error on loading function mkl_blas_avx2_
0,len(xData),30)],rotation=45) plt.plot_date(xData,yData,'-',label="单位净值") print(yData[-1], yData[-2] ) difValue =yData[-1]-yData[-2] print(difValue/yData[-2]) plt.show()
这是奔跑的键盘侠的第112篇文章 依旧,先贴一下目录: ├── README ├── MyQuant_v1 #量化分析程序目录 ├── __init__.py ├── data #数据处理目录 init__.py ├── backtest.log #不准备开发 └── transactions.log#不准备开发 今天依旧没有什么硬干货,延伸一下前面讲过的2个代码的实操 db.daily.createIndex({code:1,date:1})建立数据集索引,还有前复权、后复权的数据集都建立索引,爬取数据的速度就会快非常多,至于为何,暂时还没得空去研究 先用起来再说 2 basic_crawler.py重写 《Python——量化分析常用命令介绍(五)》中贴的basic_crawler.py代码一跑起来发现很多问题,最关键的一点是数据类型不一致不断抛出异常的问题,至于为啥 爬取这几个数据集(时间段1年半),大小已经到0.57G了,总耗时粗略估计在1.5-2小时左右。如果要下载更多年份的数据,估计3G收不住,我这边资源有限就一切从简了。
本文转载自:掘金量化 量化分析经典策略总结 菲阿里四价(期货) 原理 菲阿里四价同 R Breaker 一样,也是一种 日内 策略交易,适合短线投资者。 计算方法如下: 指标计算方法: 中心价位 P = (H + C + L)/3 突破买入价 = H + 2P -2L 观察卖出价 = P + H - L 反转卖出价 = 2P - L 反转买入价 = 2P 策略思路 第一步:根据数据计算 BOLL 线的上下界 第二步:获得持仓信号 第三步:回测分析 策略代码 # coding=utf-8 from __future__ import print_function 中国 A 股市场的行业轮动现象分析——基于动量和反转交易策略的检验[J]. 金融理论与实践, 2014, 000(009):111-114.) backtest_commission_ratio=0.0001, backtest_slippage_ratio=0.0001) 小市值(股票) 原理 因子投资 提到量化策略
这是奔跑的键盘侠的第115篇文章 依旧,先贴一下目录: ├── README ├── MyQuant_v1 #量化分析程序目录 ├── __init__.py ├── data #数据处理目录 ''' to get the trading date before,if days==1,means getting the last trading date;if days == 2, = get_all_codes("2019-07-28") print(len(code),code,flush=True) 测试结果如下: /Users/Ed_Frey/anaconda2/ 2 data_module.py 这个模块是为后面做铺垫的,接下来在数据处理分析时,会时不时的从数据集中提取所需股票信息,而且不止一次两次的重复提取。
这是奔跑的键盘侠的第118篇文章 依旧,先贴一下目录: ├── README ├── MyQuant_v1 #量化分析程序目录 ├── __init__.py ├── data #数据处理目录 \ 'type=YJBB20_YJBB&token=70f12f2f4f091e459a279469fe49eca5&st=reportdate&sr=-1' \ 2 pe_factor.py 这篇依旧是爬取数据,爬取上市公司财报数据,说白了就是个简单的爬虫,数据来源:东方财富官网。 #! 'date': date, 'code': code, 'pe': round(pe, 2)
这是奔跑的键盘侠的第116篇文章 依旧,先贴一下目录: ├── README ├── MyQuant_v1 #量化分析程序目录 ├── __init__.py ├── data #数据处理目录
合约量化如何制作: 1、制定交易策略,持仓分派:智能机器人内嵌有多种类型的交易策略,从”保守“到”激进“,考虑不一样的风险性种类。 2、共同监督多个买卖:可使用上百个买卖一起运作交易策略,每一个种类有自己单独的进程,全自动监控报价深度。实时监控系统的买卖标准,确保买卖交易的及时性。 量化交易系统软件开发 3、智能跟踪,止盈止损:设定开启标准,盈利占比超过标准后,智能机器人全自动开启跟踪止盈止损。价格持续上涨时,盈利占比持续攻克最大值,价格下降时,开启强制平仓标准,止盈止损。 合约跟单量化交易系统开发两种做法: 1.独立式跟单软件。 2.内嵌式跟单功能。目前许多已有的项目方,也可以在内部加入跟单功能,这样不仅可以增加用户粘度,也可以增加平台交易量从而增加手续费,当然与独立跟单软件相比,缺乏灵活性。
BERT 量化实战分析前言:在【大模型学习 | 量化实战(1)】-腾讯云开发者社区-腾讯云中基于BERT实现了情感分析系统以及量化的实现,但是量化的结果导致了模型的精确度急剧下降,从90%降到了54%, 为此,在本章中,尽可能的分析导致量化后模型精度下降的原因上期问题 在量化过程中,发现无法采用export量化,但是 Eager Mode 成功了, Eager Mode 只对线性层进行了量化,而没有对 量化分析方法为了进一步的优化量化模型,可以从以下方法进行分析: Calibration Range 分析 逐层敏感性分析 层级 fallback 到 FP32 误差传播分析 具体样本误差对比 Calibration ① 权重分布本身就不光滑(有离群值)② 权重量化导致连续输入映射为不连续输出解决✅ 方法1:替换激活函数 GELU → ReLU✅ 方法2:尝试采用 QAT 逐层敏感性分析核心思想:将原模型逐层量化,观察产生精度下降的原因 :.4f}") return results 其他分析方法层级 fallback 到 FP32与敏感性分析相关,该方法是将原模型逐层量化,观察精度下降情况误差传播分析对 float32 模型 和
图灵测试经常用来检验机器是否具备人的智能,但图灵测试受人为因素干扰太多,严重依赖裁判者和被测试者的主观判断,而且只判断机器是否具备了人的智能,但机器与人类智慧的差距和变化速度并不能得到定量的分析。 2013年以来我们在机器与互联智商方向进行了探索,初步成果已经发表在2014年6月6日举办的ITQM会议上,下面我们将简要介绍如何定量分析机器与人类智慧的未来之争。 2.机器与人类智商通用测试方法(M&H IQ) 在心理科学中,智力(intelligence)是最难理解的概念之一。 例如 1.从只能识别文字增加到能够识别声音和图片;2引入“语义理解”技术,试图理解用户的搜索意图;3,通过深度学习,让搜索引擎可以自动识别图像中是什么物体。 最后需要指出,目前建立的机器与人类通用智商测试量表(M&H)还有很大的改进空间,但希望这是一个起点,能够解决图灵测试的不足和缺陷,为定量分析机器智慧能否超越人类智慧打下初步的基础。