并且到了目前3.3.0还没有修复…… 这就是Chrome Extension Ghost-MDE所解决的问题: 一个干净,纯粹的mardkown 编辑器开书写Ghost的博客 自动保存文章到服务器 Chrome
So this what Ghost-MDE(chrome extension) doing for: pure markdown editor auto save post to your sever
今天分享来自浙江大学ICLR 2024的关于自动模型评估AutoEval的最新工作:MDE。 我们还通过展示 \operatorname{MDE} 与大型模型的无缝集成以及轻松适应带有噪声或不平衡标签的学习场景来展示 \operatorname{MDE} 的通用性。 此外, \operatorname{MDE} 的有效性得到了理论解释的支持。 之后我们对一个合成数据集里所有样本的能量分数施加 logSoftmax 变换和取均值操作便可得到我们的评估指标 \operatorname{MDE} ,形式为: \operatorname{MDE 实验结果表明, \operatorname{MDE} 的性能显著优于常见的免训练方法,这些增益可能受益于 \operatorname{MDE} 重新校准置信度时的温度缩放。
adata.obsm["X_mde"] = ov.utils.mde(adata.obsm["scaled|original|X_pca"]) ov.utils.embedding(adata, # [<AxesSubplot: title={'center': 'Resolution:0.25'}, xlabel='X_<em>mde</em>1', ylabel='X_<em>mde</em>2'>, # <AxesSubplot: title={'center': 'Resolution:0.5'}, xlabel='X_<em>mde</em>1', ylabel='X_<em>mde</em>2'>, # <AxesSubplot : title={'center': 'Resolution:1'}, xlabel='X_<em>mde</em>1', ylabel='X_<em>mde</em>2'>, # <AxesSubplot: title={'center ': 'Resolution:2'}, xlabel='X_<em>mde</em>1', ylabel='X_<em>mde</em>2'>] 不同分辨率对比 我们现在清楚地检查了不同分辨率对聚类结果的影响。
接着,代码对数据进行PCA降维,保留50个主成分,并进行非线性降维(MDE)。所有步骤旨在优化数据质量、减少噪声并提取重要的基因特征,为后续的分析(如聚类和差异表达分析)做准备。 adata.X ov.pp.scale(adata) # Dimensionality Reduction ov.pp.pca(adata, layer='scaled', n_pcs=50) # MDE and Embedding adata.obsm['X_mde'] = ov.utils.mde(adata.obsm['scaled|original|X_pca']) # Embedding Visualization ov.utils.embedding(adata, basis='X_mde', frameon='small', color=['replicate', 'label', ' 计算 adata.obsm["X_mde_harmony"] = ov.utils.mde(adata.obsm["X_harmony"]) # 嵌入可视化 ov.utils.embedding(adata
此外,作者通过将MDE与分类损失联系起来提供了理论分析。这种理论上的论证表明,在假设下,MDE度量与负对数似然损失一致相关,从而反映了模型泛化的趋势。 因此,作者提出一个假设:仅从测试集计算的MDE——提供了预测模型测试准确性的洞见。 MDE流程 基本流程如上述算法所示。整个过程可以总结如下:1. 计算MDE:对于一个未标记的OOD数据集,通过能量密度Z(x;f)为每个数据点x定义MDE,这是一个元概率分布度量。MDE是对数据集上能量函数的平均,提供了比初始能量分数更平滑的数据集表示。5. MDE在比较中超越了所有(甚至是最先进的)基线方法。这些结果从以下几个方面进行了讨论:1. MDE与常见无需训练方法的比较:在表1中,MDE显著优于常见的无需训练方法。 MDE与最先进/高度相关方法的比较:如表2所示,MDE在几乎所有设置中的性能都优于最近的最先进方法NuclearNorm,尤其是在MNLI设置中。
作者提出了LLM-MDE,一种多模态框架,通过语言理解深度。 具体来说,LLM-MDE采用两种主要策略来增强预训练LLM的深度估计能力:跨模态重编程和自适应提示估计模块。 在现实世界的MDE数据集上的大量实验证实了LLM-MDE的有效性和优越性,它在执行少量/零次学习任务时使用较少资源。源代码可用。 I Introduction 单目深度估计(MDE)对于诸如自动驾驶等应用至关重要,其中准确的环境感知对安全性至关重要。基于手动设计的特征和几何模型的传统MDE方法在复杂场景中经常表现不佳。 在现实世界的MDE数据集上的广泛实验表明,作者的LLM-MDE的有效性和优势,它在与少量/零样本任务的良好性能。 在实际场景的MDE数据集上进行的广泛实验表明了作者的LLM-MDE的有效性和优越性。
) { List<DeleteObjectsResult.DeletedObject> deleteObjects = mde.getDeletedObjects(); List<MultiObjectDeleteException.DeleteError> deleteErrors = mde.getErrors(); deleteErrors.stream ().map(e -> e.getMessage()).forEach(System.out::println); rmLog.error(mde.getMessage(), mde); 异常处理 catch (MultiObjectDeleteException mde) { List<DeleteObjectsResult.DeletedObject> deleteObjects = mde.getDeletedObjects(); List<MultiObjectDeleteException.DeleteError> deleteErrors = mde.getErrors
adata.raw = adata adata = adata[:, adata.var.highly_variable_features] 批次效应可视化 接下来我们通过对数据进行标准化、降维分析以及通过 mde ov.pp.scale(adata) ov.pp.pca(adata, layer='scaled', n_pcs=50) adata.obsm["X_mde_pca"] = ov.utils.mde( adata.obsm["scaled|original|X_pca"]) ov.utils.embedding(adata, basis='X_mde_pca', frameon='small "] = ov.utils.mde(adata.obsm["X_combat"]) ov.utils.embedding(adata, basis='X_mde_combat', frameon "] = ov.utils.mde(adata.obsm["X_harmony"]) ov.utils.embedding(adata, basis='X_mde_harmony', frameon
ov.pp.scale(adata) ov.pp.pca(adata,layer='scaled',n_pcs=50) adata.obsm["X_mde_pca"] = ov.utils.mde(adata.obsm adata.obsm["X_mde_combat"] = ov.utils.mde(adata.obsm["X_combat"]) ov.utils.embedding(adata, 我们在后面的章节中会对比不同的嵌入的效果,让我们继续看下一个 adata.obsm["X_mde_scanorama"] = ov.utils.mde(adata.obsm["X_scanorama"] adata.obsm["X_mde_scVI"] = ov.utils.mde(adata.obsm["X_scVI"]) ov.utils.embedding(adata, : title={'center': 'cell_type'}, xlabel='X_mde_scANVI1', ylabel='X_mde_scANVI2'>] scANVI去除批次效应效果 7.
adata.obsm["X_mde"] = ov.utils.mde(adata.obsm["scaled|original|X_pca"]) ov.utils.embedding(adata, # [<AxesSubplot: title={'center': 'Resolution:0.25'}, xlabel='X_<em>mde</em>1', ylabel='X_<em>mde</em>2'>, # <AxesSubplot: title={'center': 'Resolution:0.5'}, xlabel='X_<em>mde</em>1', ylabel='X_<em>mde</em>2'>, # <AxesSubplot : title={'center': 'Resolution:1'}, xlabel='X_<em>mde</em>1', ylabel='X_<em>mde</em>2'>, # <AxesSubplot: title={'center ': 'Resolution:2'}, xlabel='X_<em>mde</em>1', ylabel='X_<em>mde</em>2'>] 不同分辨率对比 我们现在清楚地检查了不同分辨率对聚类结果的影响。
这个任务也被称为单目深度估计(MDE)。 近日,一种可有效利用大规模无标注图像的新 MDE 模型 Depth Anything 凭借强大的性能在社交网络上引起了广泛讨论,试用者无不称奇。 此前的 MiDaS 算得上是这个方向上的一项开创性研究,其基于一个混合标注的数据集训练了一个 MDE 模型。 这篇论文的主要贡献包括: 强调了大规模、低成本和多样化无标注图像的数据扩展对 MDE 的价值。 Depth Anything TikTok 的这项研究使用了有标注和无标注图像来实现更好的单目深度估计(MDE)。 面向语义分割进行微调 在本文方法中,研究者设计了 MDE 模型,通过简单的特征对齐约束,从预训练编码器中继承丰富的语义先验。随后,研究者检验了 MDE 编码器的语义能力。
除此之外,如果你的电脑有GPU,那么可以尝试使用mde来绘制UMAP图,pymde包是GPU加速的UMAP绘图函数。 mde函数内自带neighbor的计算,所以我们可以直接输入pca结果 adata.obsm["X_mde_scaled"] = ov.utils.mde(adata.obsm["scaled|original |X_pca"]) adata.obsm["X_mde_counts"] = ov.utils.mde(adata.obsm["counts|original|X_pca"]) import matplotlib.pyplot ', ylabel='X_mde_scaled2'>, # <AxesSubplot: title={'center': 'log2#(nGenes)'}, xlabel='X_<em>mde</em>_scaled1 ', ylabel='X_<em>mde</em>_scaled2'>, # <AxesSubplot: title={'center': 'Mito_Perc'}, xlabel='X_<em>mde</em>_scaled1
from rich import print from scib_metrics.benchmark import Benchmarker from scvi.model.utils import mde "] = mde(adata.obsm["X_scVI"]) sc.pl.embedding( adata, basis="X_mde", color=["batch", "leiden ncols=1, ) image-20230723214135712 因为该数据集已做注释,所以这里可以根据注释结果来评价scVI的效果: sc.pl.embedding(adata, basis="X_mde 将结果添加为"X_scANVI" adata.obsm["X_scANVI"] = lvae.get_latent_representation(adata) 结果可视化: adata.obsm["X_mde_scanvi "] = mde(adata.obsm["X_scANVI"]) sc.pl.embedding( adata, basis="X_mde_scanvi", color=["cell_type"
ov.pp.scale(adata) #Dimensionality Reduction ov.pp.pca(adata,layer='scaled',n_pcs=50) adata.obsm['X_mde ']=ov.utils.mde(adata.obsm['scaled|original|X_pca']) ov.utils.embedding(adata, basis ='X_mde', frameon='small', color=['replicate','label','cell_type "] = ov.utils.mde(adata.obsm["X_scVI"]) # ...Begin using scVI to correct batch effect # GPU _metacell.plot_metacells(ax,meta_obj.adata, use_rep='X_mde_scVI',color
MDE是什么? 考核点:考核候选人对于AB实验本质的理解。 MDE「Minimum Detectable Effect,最小可检测变化」:实验能有效检测出来的指标差异幅度。 一般在实验过程中,通过MDE来评判实验的灵敏度,通俗来讲,在评估实验结论的过程中: MDE<真实提升率:指标评估置信。 MDE>真实提升率:指标评估缺乏置信。 可以通过扩大样本量的方式,降低可有效检测的MDE值。 以上就是本期的内容分享。
与传统笨重的激光雷达和结构光传感器相比,单目深度估计(MDE)具有低成本、小体积、高能效和免校准的优势。但不同相机的硬件和软件差异会导致图像风格差异,使基于单一相机训练的MDE模型存在域偏移问题。 优于需多阶段训练的传统方法首次同时解决三种适配场景:跨相机、合成到真实、恶劣天气应用场景跨相机适配解决不同相机硬件/软件导致的图像风格差异问题合成到真实适配将合成数据训练的模型适配到真实场景恶劣天气适配在雾天等恶劣条件下保持深度估计精度(首次针对MDE
LiheYoung/Depth-Anything https://depth-anything.github.io/ 本文提出一种用于单目深度估计(Monocular Depth Estimation, MDE 释放无标签数据的能量 受益于互联网的发展,我们可以比较容易的构建一个多样性的大规模无标签数据集,同时也可以借助于预训练MDE模型为这些无标签图像生成稠密深度图。 给定预训练MDE老师模型T,我们可以将无标签数据集 \mathcal{D}^u 转换为伪标签数据集 \hat{\mathcal{D}}^u : \hat{\mathcal{D}}^u = \{(u_i, 语义辅助感知 尽管已有一些研究通过语义分割任务辅助改善深度估计模型性能,但不幸的是:经过尝试,RAM+GroundDINO+HQ-SAM组合方案无法进一步提升原始MDE模型的性能。 最后,作者还验证了所提MDE编码器在语义分割任务上的迁移能力,见上表。
eyJpc3MiOiJodHRwOlwvXC9tZW1iZXItYXBpLnN0MS50ZXN0LmxhbnhpbmthLmNvbVwvMi4wXC91c2Vyc1wvbG9naW4iLCJpYXQiOjE1ODU5MDYwMTQsImV4cCI6MTU4NzIwMjAxNCwibmJmIjoxNTg1OTA2MDE0LCJqdGkiOiJIa0JhSkl2bTlKVldnQTZ2Iiwic3ViIjo1ODQ5MDIsInBydiI6IjNhN2IwNmU5NTBkMDhlMjMzMjkyMjdjN2E2YTUyMzQyYWJiNGYxOWIiLCJidXNpbmVzc190eXBlIjoiNiJ9 eyJpc3MiOiJodHRwOlwvXC9tZW1iZXItYXBpLnN0MS50ZXN0LmxhbnhpbmthLmNvbVwvMi4wXC91c2Vyc1wvbG9naW4iLCJpYXQiOjE1ODU5MDYwMTQsImV4cCI6MTU4NzIwMjAxNCwibmJmIjoxNTg1OTA2MDE0LCJqdGkiOiJIa0JhSkl2bTlKVldnQTZ2Iiwic3ViIjo1ODQ5MDIsInBydiI6IjNhN2IwNmU5NTBkMDhlMjMzMjkyMjdjN2E2YTUyMzQyYWJiNGYxOWIiLCJidXNpbmVzc190eXBlIjoiNiJ9 eyJpc3MiOiJodHRwOlwvXC9tZW1iZXItYXBpLnN0MS50ZXN0LmxhbnhpbmthLmNvbVwvMi4wXC91c2Vyc1wvbG9naW4iLCJpYXQiOjE1ODU5MDYwMTcsImV4cCI6MTU4NzIwMjAxNywibmJmIjoxNTg1OTA2MDE3LCJqdGkiOiJKb09tMjBEUkJZYnc4QUxYIiwic3ViIjo1ODY1NTYsInBydiI6IjNhN2IwNmU5NTBkMDhlMjMzMjkyMjdjN2E2YTUyMzQyYWJiNGYxOWIiLCJidXNpbmVzc190eXBlIjoiNiJ9 eyJpc3MiOiJodHRwOlwvXC9tZW1iZXItYXBpLnN0MS50ZXN0LmxhbnhpbmthLmNvbVwvMi4wXC91c2Vyc1wvbG9naW4iLCJpYXQiOjE1ODU5MDYwMTcsImV4cCI6MTU4NzIwMjAxNywibmJmIjoxNTg1OTA2MDE3LCJqdGkiOiJKb09tMjBEUkJZYnc4QUxYIiwic3ViIjo1ODY1NTYsInBydiI6IjNhN2IwNmU5NTBkMDhlMjMzMjkyMjdjN2E2YTUyMzQyYWJiNGYxOWIiLCJidXNpbmVzc190eXBlIjoiNiJ9 eyJpc3MiOiJodHRwOlwvXC9tZW1iZXItYXBpLnN0MS50ZXN0LmxhbnhpbmthLmNvbVwvMi4wXC91c2Vyc1wvbG9naW4iLCJpYXQiOjE1ODU5MDYwMTQsImV4cCI6MTU4NzIwMjAxNCwibmJmIjoxNTg1OTA2MDE0LCJqdGkiOiJIa0JhSkl2bTlKVldnQTZ2Iiwic3ViIjo1ODQ5MDIsInBydiI6IjNhN2IwNmU5NTBkMDhlMjMzMjkyMjdjN2E2YTUyMzQyYWJiNGYxOWIiLCJidXNpbmVzc190eXBlIjoiNiJ9
MulticastDelegateExample mde = new MulticastDelegateExample(PrintNumber); // Add PrintMoney mde += PrintMoney; mde += PrintHexadecimal; // Invoke the multicast delegate. mde(123); // Remove PrintHexadecimal from the invocation list. mde -= PrintHexadecimal; Console.WriteLine("-----"); // Invoke the multicast delegate mde(123); } } 2.匿名方法 PrintDelegate printDelegate = delegate (string message) { Console.WriteLine