首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI研习社

    简单介绍 TF-Ranking

    进入 TF-Ranking TF-Ranking是一个基于tensorflow的框架,它支持在深度学习场景中实现TLR方法。 TF-Ranking的实现非常复杂,但使用起来也非常简单。 使用TF-Ranking构建model_fn函数是基于两个基本组件的组合: 评分函数(scoring function)和排名头(ranking head)。 ? =ranking_head), params=hparams) 除了编程简单之外,TF-Ranking还集成了TensorFlow生态系统的其他部分。 TF-Ranking在现实世界中的应用 谷歌在两个关键任务场景中评估了 TF-Ranking: 对存储在谷歌驱动器中的文档进行Gmail搜索和推荐。

    1.5K20发布于 2019-05-08
  • 来自专栏calmound

    Sicily 8843 Ranking and Friendship

    http://soj.me/8843 题意:几个人想做好朋友,朋友之间相差位置小于等于k,且长度相同 分析;排序,将长度相同的放在一起。若长度相同,第i个人能放进去的条件是位置相差下雨等于k。         若不能放进去,将对头踢掉,踢到对头是第i个人的朋友的时候为止。若长度不相同,则将队列清空。         更新sum值,在第i个人进去的时候就加上队列的当前长度。         这个没考虑的问题是当长度相同,但是队列中的人都不符合其位置差,全部剔除的时候,第i个人却没有加进队列,导致错误 // P

    60980发布于 2018-04-17
  • 来自专栏数据结构与算法

    P2617 Dynamic Ranking

    题目描述 给定一个含有n个数的序列a[1],a[2],a[3]……a[n],程序必须回答这样的询问:对于给定的i,j,k,在a[i],a[i+1],a[i+2]……a[j]中第k小的数是多少(1≤k≤j-i+1),并且,你可以改变一些a[i]的值,改变后,程序还能针对改变后的a继续回答上面的问题。你需要编一个这样的程序,从输入文件中读入序列a,然后读入一系列的指令,包括询问指令和修改指令。 对于每一个询问指令,你必须输出正确的回答。 输入输出格式 输入格式: 第一行有两个正整数n(1≤n≤10000),m(

    820140发布于 2018-04-12
  • 来自专栏算法修养

    PAT 甲级 1025 PAT Ranking

    PAT Ranking (25) 时间限制 200 ms 内存限制 65536 kB 代码长度限制 16000 B 判题程序 Standard 作者 CHEN, Yue

    987100发布于 2018-04-27
  • 来自专栏乐行僧的博客

    PAT(甲级)1025.PAT Ranking(25)

    PAT 1025.PAT Ranking(25) Programming Ability Test (PAT) is organized by the College of Computer Science

    47220编辑于 2022-02-25
  • 来自专栏机器学习与推荐算法

    论文笔记 : Dual Neural Personalized Ranking

    关于隐式反馈,可以看https://www.jianshu.com/p/d8173f29e4f8 本文作者提出DualNPR(双NPR) ,以统一的形式实现对用户和物品侧的逐对排序(pairwise ranking 相关知识 推荐中的排序最经典的要数BPR(Bayesian Personalized Ranking): BPR BPR算法中,将任意用户u对应的物品进行标记,如果用户u在同时有物品i和j的时候点击了i

    89720发布于 2020-04-20
  • 来自专栏vblog

    PAT 1025 PAT Ranking (25分) vector + sort

    Programming Ability Test (PAT) is organized by the College of Computer Science and Technology of Zhejiang University. Each test is supposed to run simultaneously in several places, and the ranklists will be merged immediately after the test. Now it is your job to write a program to correctly merge all the ranklists and generate the final rank.

    48420发布于 2020-07-14
  • 来自专栏machine_learning

    Bayesian Personalized Ranking 算法解析及Python实现

    Bayesian Personalized Ranking 5.1 BPR介绍 在推荐系统中,分为召回和排序两个阶段。 Bayesian Personalized Ranking算法实现 网上开源的BPR代码有很多,这里着重表达一下用户embedding矩阵和物品embedding矩阵,以及损失函数的构造。 总结 回顾Bayesian Personalized Ranking 算法,有以下三点值得回味: 1. θ的正态分布(先验)形式: ?

    1.1K50发布于 2020-09-09
  • 来自专栏喔家ArchiSelf

    大模型应用系列:从Ranking到Reranking

    【引子】Ranking 和Reranking又是一个NLP 处理中的传统技术, 那么在大模型应用中又起到怎样的作用呢? 深入了解Ranking技术的发展历程对于掌握当前最先进的Rerank方法来说很有意义。 早期的Ranking 早期的搜索引擎,相对简单且但功能有限。当时的技术,就像 BM25一样,主要集中在精确的术语匹配上。 在基于稠密表达的检索技术中,Ranking直接在矢量表示(通常由Transformer生成)上执行。 小结 通过回顾信息检索的历史,我们可以了解到从Ranking到Reranking的演进过程。

    1.6K10编辑于 2024-11-11
  • 来自专栏乐行僧的博客

    PAT(甲级)1141.PAT Ranking of Institutions (25 分)

    PAT 1141.PAT Ranking of Institutions (25 分) After each PAT, the PAT Center will announce the ranking

    38330编辑于 2022-02-25
  • 来自专栏ACM算法日常

    POJ-3275:奶牛排序Ranking the Cows(Floyd、bitset)

    Each of Farmer John's N cows (1 ≤ N ≤ 1,000) produces milk at a different positive rate, and FJ would like to order his cows according to these rates from the fastest milk producer to the slowest.

    91020发布于 2018-08-07
  • 来自专栏喔家ArchiSelf

    初探Ranking系统的离在线满意度评估

    【引子】在上周发布了《大模型应用系列:从Ranking到Reranking》之后, 有AI 产品经理问我,如何评估Ranking 系统的性能呢? 再进一步,如何评估RAG系统的性能呢? RAG本质上具有生成能力的一个信息检索系统,Ranking/Reranking 在其中的作用非常重要。测量该系统的有效性需要提供清晰的度量指标。 这个列表是根据算法确定的,该算法评估每个文档、文章或网页与查询请求之间的相关性,并据此对它们进行Ranking。 幸运的是,一些大型数据集已经包含了足够的相关性判断,足以支持在监督环境下有效地训练Ranking模型。 1.4 Top-K 参数 在对信息检索系统的性能进行Ranking评估时,定义一个合适的K参数是至关重要的。"

    62310编辑于 2024-11-18
  • 来自专栏数据结构与算法

    洛谷P2881 排名的牛Ranking the Cows(bitset Floyd)

    显然如果题目什么都不说的话需要\(\frac{n * (n - 1)}{2}\)个相对关系

    45820发布于 2019-01-30
  • 来自专栏量子位

    谷歌开源TF-Ranking可扩展库,支持多种排序学习

    铜灵 发自 凹非寺 量子位 出品 | 公众号 QbitAI 最近,谷歌新开源了可扩展的TensorFlow库TF-Ranking,可用于学习排序。 TF-Ranking中有一套完整的学习排序的算法,包含成对或列表损失函数、多项目评分、排名度量优化和无偏见的学习排名。 除了上述特征外,研究人员最后再次强调, TF-Ranking也是一个无偏见的排序学习库。 这篇新博客就酱,对TF-Ranking感兴趣的话,可进一步探索以下官方资料: 传送门 博客地址: https://ai.googleblog.com/2018/12/tf-ranking-scalable-tensorflow-library.html 代码地址: https://github.com/tensorflow/ranking 教程地址: https://github.com/tensorflow/ranking/tree/master/tensorflow_ranking

    49630发布于 2018-12-25
  • 来自专栏机器学习算法与Python学习

    开源TF-Ranking可扩展库,支持多种排序学习

    TF-Ranking中有一套完整的学习排序的算法,包含成对或列表损失函数、多项目评分、排名度量优化和无偏见的学习排名。 多项评分 TF-Ranking支持与以往不同的评分机制,比如,可以挑战一把多项目评分。这是此前的一个难以进行推理的行业瓶颈。 除了上述特征外,研究人员最后再次强调, TF-Ranking也是一个无偏见的排序学习库。 这篇新博客就酱,对TF-Ranking感兴趣的话,可进一步探索以下官方资料: 传送门 博客地址: https://ai.googleblog.com/2018/12/tf-ranking-scalable-tensorflow-library.html /tensorflow/ranking/tree/master/tensorflow_ranking/examples

    73120发布于 2018-12-28
  • 来自专栏张戈的专栏

    原创插件:WordPress读者排行榜插件WP Readers Ranking

    没办法,根据实际功能,我将这个插件命名为 WP Readers Ranking,译为 WordPress 读者排行榜,也就懒得去深究中式英语的对与错了。。。 在手动模式当中,插件提供 2 个自定义部署的方法: 方法①是短代码部署的方法: 后台编辑页面内容,在任意位置插入短代码“[readers_ranking]”,保存页面即可。 安装方法和其他 WordPress 插件一样,分为 2 种: ①、在线安装 该插件已上传到了 WordPress 官方插件站,所以只要在 WordPress 后台的插件在线安装界面搜索 WP Readers Ranking 插件主页:https://wordpress.org/plugins/wp-readers-ranking/ 下载地址:https://downloads.wordpress.org/plugin/wp-readers-ranking.zip

    1.9K80发布于 2018-03-23
  • 来自专栏新智元

    谷歌推出TF-Ranking:用于排序算法的可扩展TensorFlow库

    TF-Ranking TF-Ranking提供了一个统一的框架,其中包括一套最先进的Learning to Rank算法,并支持成对或列表丢失函数,多项目评分,排名度量优化等等。 此外,TF-Ranking可以通过嵌入和扩展到数亿个训练实例来处理稀疏特征(如原始文本)。 TF-Ranking库支持多项目评分体系结构,是传统单项评分的扩展。 TF-Ranking库集成了直接度量优化的最新进展,并提供了LambdaLoss的实现。 开始用TF-Ranking吧! TF-Ranking实现了TensorFlow Estimator接口,通过封装训练、评估、预测和导出服务,大大简化了机器学习编程。

    95130发布于 2018-12-25
  • 来自专栏AI科技评论

    动态 | 谷歌开源 TF-Ranking:专用于排序学习的可扩展 TensorFlow 库

    TF-Ranking 快速且易用,并能创建高质量的排序模型,对构建 web 搜索或新闻推荐等基于真实世界数据的排序系统感兴趣的人,都可以将 TF-Ranking 作为强稳的、可扩展的解决方案。 现在,谷歌 AI 宣布开源 TF-Ranking(https://github.com/tensorflow/ranking),它是一个可扩展的排序学习 TensorFlow 库。 TF-Ranking 库支持扩展自传统单条目评分的多条目评分架构。 开启 TF-Ranking 的使用 TF-Ranking 实现了 TensorFlow Estimator 接口,它通过封装训练、评估、预测和导出服务,可以大大简化机器学习编程。 /tensorflow/ranking/tree/master/tensorflow_ranking/examples)。

    1.1K30发布于 2018-12-29
  • 来自专栏数据猿

    知乎排序算法负责人单厚智的经验分享:推荐页Ranking

    知乎推荐页场景和Ranking历程介绍;2.深度学习在Ranking中的尝试和应用现状;3.Ranking面临的问题和未来研究方向。 大鱼丨新浪微博丨新浪看点丨百度百家丨博客中国丨趣头条丨腾讯云·云+社区 单厚智,知乎推荐算法高级工程师,排序算法负责人,硕士毕业于北京邮电大学,曾在搜狗从事广告点击率预估工作,引入GBDT+LR模型;加入知乎后,主要负责推荐页 ranking 以上就是知乎推荐页的整体架构流程,下面针对Ranking模块做详细讲解。 首先介绍一下推荐页Ranking的演进历程,如下图所示,Ranking的演进主要经历了四个阶段。 ? 1. Feed Ranking 采用GDBT模型。 4. Global Ranking 深度学习模型,DNN等。 如果发现线下效果好,比如 AUC 和 NDCG 提升明显,但上线效果不显著,很可能是特征不一致导致的,可重点排查; 3、线上线下最好使用同一套特征抽取框架,只需使用的相同特征配置便可保证一致性,我们 Global Ranking

    2K10发布于 2019-11-20
  • 来自专栏新智元

    TF-Ranking迎来大更新:兼容Keras更容易开发

    然后对整个文档列表的合并 BERT 输出与 TF-Ranking 中可用的一个专门的排名损失进行联合微调。 神经排序 GAM 现在可以作为 TF-Ranking 的一部分。 自 TF-Ranking 版本发布以来,开发团队极大地加深了对如何最好地利用神经模型进行数值特征排序的理解。 DASALC 模型的体系结构完全使用 TF-Ranking 库实现。 最后,研究团队表示,基于Keras的TF-Ranking将更容易进行开发和部署LTR模型。 TF-Ranking开发团队中包括许多华人,其中Honglei Zhuang以第一作者身份为TF-Ranking贡献多篇论文。

    1.1K50发布于 2021-08-25
领券