首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏皮皮鲁的AI星球

    漫谈 | 同是北大的学生,考研进北大和高考进北大,差距很大吗?

    同是“北京大学”的学生,考研进北大和高考进北大,差距很大吗?我的答案是,差距确实很大! 我本科非北大,研究生保送进入北大的,我从自己身边的几个案例来跟大家分享一下被那些”高考进北大“的学神碾压是什么感觉。本文涉及人物均为真实案例。 到了大学,听说J选修了北大的经济学双学位,后来研究生来了北大才知道,经济学双学位在北大尽人皆知,号称三俗之一,几乎所有人都会选修,每年招收近千人。 W和L是我来到北大后认识的朋友,也都选修了“经双”,W本科是北大物理专业,本科毕业是本专业前几,研究生直接保送到了北大光华管理学院。 同在北大 差距很大 同是北大的学生,考研进北大和高考进北大,差距很大吗?我个人感觉确实有一些差距。这些高考进北大的尖子生,不只会高考,也经常不务正业,结果玩着玩着,就玩出了一些名堂。

    93110发布于 2019-12-26
  • 来自专栏HyperAI超神经

    跨界教授林宙辰:从北大来,回北大

    北大,林宙辰老师开始接触 AI,初步学习了图像处理和模式识别,也参与了若干实际项目,其中一个项目就是搭建地理信息系统,把手绘地图或印刷地图数字化并进行管理。 1995 年,林宙辰老师从北大数学系硕士毕业后,远赴香港,在香港理工大学应用数学系,又进行了为期两年的硕士学习,掌握了计算数学的基础。 林宙辰老师回到北大数学学院后,深入地学习了图像处理、机器视觉和模式识别的课程。立志成为数学家的林宙辰老师,开始全面转向 AI 领域。 招生看「四好」,理论优于编程 林宙辰老师回到北大后,在智能科学系任教授,主要研究机器学习和计算机视觉。 12 年微软亚洲研究院履职, 40 岁的林宙辰老师,在职业发展上做出了一个重大转变:放弃微软亚洲研究院的丰厚待遇,回归北大教书育人,继续人工智能理论方面的研究。

    1.3K50发布于 2021-08-25
  • 来自专栏沉默王二

    北大,竟然这样上!

    废话不多说,今天抽出一个小时给大家分享一份北大学长的《CS 指南》,在 GitHub 上已经星标 5.6k 了——原来,北大可以这样上! 这份指南规划的内容有: 学习工具:IDE、Stack Overflow、Git、GitHub、Vim 等等 国外高质量的 CS 课程汇总 经典书籍推荐,类似 CSAPP 这样的硬核书籍 比较令我想不到的是,这位北大的同学也一度怀疑自己是不是不适合计算机 ,也许是对北大的课程不是很满意吧? 3)国外课程的优势 非崇洋媚外哈,作者单纯从一个学生的视角阐述了自学国外课程的体验,包括独立搭建的课程网站、教授亲自编写的教材、眼花缭乱的课程作业、让你获得一种“我才学了一个月就能做一个小游戏”的成就感的

    55130编辑于 2022-04-14
  • 来自专栏新智元

    北大第2,清华第3!AIRankings世界高校AI排行榜出炉

    卡内基梅隆大学以巨大的优势夺得第一,北大和清华当之无愧地跻身于世界前五,分别位列第2、第3。 加利福尼亚大学伯克利分校和麻省理工学院紧随其后,分别拿下第4、第5,中国科学院则排名第6。 从修正后的AI论文数来看,北大领先;而单从AI指数来看,则是清华略胜一筹。 不过,把各个项目拆开之后可以发现,两所学校各有侧重。 比如,北大在计算机视觉和自然语言处理上得分更高,清华在通用人工智能和机器学习上表现出色。 与此同时,研究机构的数量也逊于第3的德国和第4的英国。 具体表现如下: 评价标准 综合来看,这个榜单的评价标准也是十分严谨的。 北大排名14,西工大第21,浙大第26,中科院第30,南大第42。 对比机器人方向,机器学习的整体表现还是要好上不少。 自然语言处理 在自然语言处理这个分支,北大当之无愧排在了第1名。

    1.5K50编辑于 2022-06-09
  • 来自专栏AI科技评论

    北大、人大联合开源工具箱UER,3 行代码完美复现BERT、GPT!

    3)NCRF++ ? NCRF++是一个基于 PyTorch 的开源神经序列标注工具包,可用于多种神经序列标注工具包的快速实现。 4)ngram2vec ? 3)Target 选用恰当的 target 是预训练成功的关键,虽然现有的 target 有很多种,但是它们都有各自的优缺点。 但是,在 UER 中包含有 3 个阶段,分别为:在广义领域语料库上的预训练、在下游数据库上的预训练及在下游数据库的微调。 3. 结果验证 为了验证 UER 性能的好坏,作者基于不同的数据集设计了一系列实验。 为了进行对比,作者分别采用 MLM 和 CLS 做为 target,并记录测试结果(表3): ?

    2.3K00发布于 2019-10-10
  • 来自专栏Java程序员的技能宝典

    北大“女学霸”,3 个月内拿取硅谷10 家顶级科技公司offer!

    经过 3 个月精心准备,我拿到了 Google,Facebook,Netflix,linkedin,Snapchat,Roku TV,Amazon,Signal,Wealthfront,Toyota 背景: 本人 13 年北大毕业,本科读的是信息管理与信息系统专业,和图书馆学是一个系。我的数理能力肯定不是顶尖,高考是靠语文英语拉分的。 3、我想再生个宝宝,那样,基本上最新两年升职没戏了。于是,在 18 年圣诞,我就下定决心,准备跳槽。 准备过程: 说干就干!我打开了网站,一切还是那么熟悉与陌生。 当时宝宝只有 4 个月,所以,我的时间比较零散,周中基本上每天 1-2 个小时,周末一天会有 3-4 个小时用来学习。以下按照我的个人经历。你要是能全职准备,或者基础扎实,其实应该很快。 3、突飞猛进期(1 个月) 学习结束之后,我开始分类攻克,按照数据结构和算法,拿出几个常见的类型,一类一类的看。

    1.6K00发布于 2020-04-03
  • 来自专栏深度学习自然语言处理

    县城再无清华北大

    有种观点很有趣,意思是说“从落后地区考入清华北大的学生天赋上自有其过人之处,所以……”。 而且我发现,尽管清华北大在北京招生名额很多,但是父母教育程度不高的北京土著家庭却很少有孩子考上清华北大。 而且近年来的趋势是北京最优秀的学生选择直接出国,而不是上清华北大。 图 | 360图库 3.中国经济相对落后的地区的确有一段基础教育的黄金年代,但是这段黄金年代即将成为历史,落后地区和大城市在基础教育上的差距是在不断拉大的。 以陕西为例,曾经考上清华北大的学生在各个城市、县城是比较平均的。但是这些年,清华北大在陕西的招生名额日趋被几所超级中学垄断,而周边的小县城,年级第一能考个西安交大就谢天谢地了。

    71810编辑于 2022-09-02
  • 来自专栏机器之心

    ICLR 2024|把图像视为外语,快手、北大多模态大模型媲美DALLE-3

    机器之心报道 机器之心编辑部 动态视觉分词统一图文表示,快手与北大合作提出基座模型 LaVIT 刷榜多模态理解与生成任务。 近期,来自快手和北大合作的最新多模态大模型 LaVIT, 正在让这个想法逐步变为现实。 其图像生成能力与最先进的图像生成模型(如 Parti、SDXL 和 DALLE-3)相媲美。

    68310编辑于 2024-02-06
  • 来自专栏入门小站

    Linux性能优化指北大

    74 500 1228 4 1 94 0 0 0 0 0 103512 145416 511076 0 0 0 455 723 1573 12 3 用 top 查看系统资源发现:1)平均负载在逐渐增加,且 1 分钟内平均负载达到了 CPU 个数,说明系统可能已经有了性能瓶颈;2)僵尸进程比较多且在不停增加;3)us 和 sys CPU 使用率都不高 其中 L1/L2 常用在单核, L3 则用在多核中 平均负载案例 先用 uptime 查看系统平均负载 判断负载在升高后再用 mpstat 和 pidstat 分别查看每个 CPU 和每个进程 CPU 32 位系统内核空间占用 1G,用户空间占 3G。64 位系统内核空间和用户空间都是 128T,分别占内存空间的最高和最低处,中间部分为未定义。 这个也和top的负载有关系,一般负载超过了3就比较高,超过了5就高,超过了10就不正常了,服务器的状态很危险。top的负载类似每秒的运行队列。

    1.4K20编辑于 2022-06-03
  • 来自专栏Java研发军团

    解析北大招生数学考题。

    先看一道号称是北大招生题: ? OP = 1 r = O'O = OPsinΘ = sinΘ (式2) 将式2代入式1得到: S1/S2 = (sinΘ^2)sinɑcosɑ / (1-sinΘsinɑ)(1-sinΘcosɑ) (式3

    1.1K30发布于 2019-06-05
  • 来自专栏FREE SOLO

    北大Hadoop实践教程精要笔记

    Hadoop目前是Apache旗下的顶级项目之一, 是Google在2004年提出的“MapReduce”分布式计算框架的一个Java实现。

    86320发布于 2019-04-28
  • 来自专栏图与推荐

    北大@KDD | GAT v.s. MLP?

    3 结果 首先作者比较了GAMLP和代表性的可扩展GNN方法时间和空间复杂度,发现GAMLP理论上更优。 此外。

    61850编辑于 2023-03-01
  • 来自专栏Python编程与实战

    北大法律大模型ChatLaw火了!!

    语言大模型不断向垂直行业领域拓展,这次出圈的是北大法律大模型。 大模型又「爆了」。 昨晚,一个法律大模型 ChatLaw 登上了知乎热搜榜榜首。热度最高时达到了 2000 万左右。 这个 ChatLaw 由北大团队发布,致力于提供普惠的法律服务。一方面当前全国执业律师不足,供给远远小于法律需求;另一方面普通人对法律知识和条文存在天然鸿沟,无法运用法律武器保护自己。 其实最近发布法律大模型的不只有北大一家。上个月底,幂律智能联合智谱 AI 发布了千亿参数级法律垂直大模型 PowerLawGLM。据悉该模型针对中文法律场景的应用效果展现出了独特优势。 同时,通过与北大国际法学院、行业知名律师事务所进行合作,ChatLaw 团队能够确保知识库能及时更新,同时保证数据的专业性和可靠性。下面我们看看具体示例。 例如,ChatLaw 模型优于 GPT-4 的原因是文中使用了大量的选择题作为训练数据; (3)法律选择题需要进行复杂的逻辑推理,因此,参数量更大的模型通常表现更优。

    1.4K50编辑于 2023-09-02
  • 来自专栏机器之心

    3D具身基础模型!北大提出Lift3D赋予2D大模型鲁棒的3D操纵能力

    为了构建鲁棒的 3D 机器人操纵大模型,Lift3D 系统性地增强 2D 大规模预训练模型的隐式和显式 3D 机器人表示,并对点云数据直接编码进行 3D 模仿学习。 为了解决这些问题,我们提出了 Lift3D 框架,通过隐式和显式的 3D 机器人表示逐步增强 2D 大规模预训练模型的 3D 空间感知能力,从而构建一个鲁棒的 3D 操纵策略。 基于上述 3D 策略中的挑战,我们提出了一个问题:“我们能否开发一个即有大规模预训练知识,又融合完整 3D 空间数据输入的 3D 策略基础模型?” 3. 映射完成后,我们将每个 3D 补丁对应的 2D PEs 进行平均,形成统一的 3D 位置嵌入(3D PEs),然后将其与 3D tokens 结合。 33D 策略方法:Lift3D 与之前的 SOTA 3D 扩散策略(DP3)在 MetaWorld 和 Adroit 上进行了比较,并在 RLBench 上与 RVT-2 进行了比较。

    27600编辑于 2025-02-14
  • 来自专栏量子位

    3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜

    北大联合中山大学、腾讯等机构推出的新模型MoE-LLaVA,登上了GitHub热榜。 它仅有3B激活参数,表现却已和7B稠密模型持平,甚至部分指标比13B的模型还要好。 对于浅层的5-11层,主要是由专家2、3、4共同协作。值得关注的是,专家1几乎只在第1-3层工作,随着模型变深,专家1逐渐退出了工作。 例如,当专家3在17-27层工作时,它所处理的文本和图像的占比是相似的,这展现出MoE-LLaVA中的专家对于模态并无明显的偏好。 团队还发现,对于某个未见的文本或图像token,MoE-LLaVA始终偏向于派发专家2和3来处理;专家1、4则倾向于处理初始化的token。 作者简介 MoE-LLaVA由北大深研院信息工程学院袁粒课题组主导,该课题组主要研究机器视觉、机器学习和脑科学。

    93110编辑于 2024-02-22
  • 来自专栏量子位

    如今,进北大要看脸了

    郭一璞 发自 凹非寺 量子位 报道 | 公众号 QbitAI 高考分数刚刚出来,各地考生与家长还在纠结报志愿的时候,进北大要看脸了。 嗯,是说进北大校门。 今天,北大正式启用人脸识别门禁,进入校门可以不带校园卡,直接刷脸了。 ? 人脸识别设备装在北大西南门,进门就是女生宿舍。常年盘踞北大(旁边)的量子位,现场围观了这套系统。 现场什么样 ? 不过,由于北大数据库中的照片质量不够,这套系统目前并不能保证识别出所有北大师生,无法识别的同学需要到保安室重新拍照。 CV创业公司,偏偏都非北大系 虽然北大领先隔壁T大把人脸识别用在了校门口,不过,似乎在人脸识别的“科技范儿”上,北大略输一筹。 另外,其实量子位的台柱子夏乙老师也毕业于北大,所以,大概量子位也算北大系AI创业公司咯? 你们滋不滋瓷哇?

    94630发布于 2018-07-20
  • 来自专栏刷题笔记

    【河北大学数据结构大作业】

    0].name,"体检中心"); strcpy(G.vexs[1].name,"操场"); strcpy(G.vexs[2].name,"校园北口"); strcpy(G.vexs[3] 15; G.arcs[1][7].adj=20; G.arcs[1][9].adj=40; G.arcs[2][5].adj=10; G.arcs[2][8].adj=15; G.arcs[3] [6].adj=30; G.arcs[3][8].adj=20; G.arcs[4][7].adj=10; G.arcs[4][9].adj=60; G.arcs[5][8].adj=25; 15; G.arcs[6][9].adj=20; G.arcs[7][8].adj=40; G.arcs[8][9].adj=10; G.arcs[2][9].adj=15; G.arcs[3] [9].adj=30; G.arcs[3][4].adj=20; G.arcs[4][8].adj=10; G.arcs[4][5].adj=60; G.arcs[5][9].adj=25;

    70110发布于 2019-12-03
  • 来自专栏机器之心

    北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

    当整个 AI 视觉生成领域都在 Transformer 架构上「卷生卷死」时,一项来自北大、北邮和华为的最新研究却反其道而行之,重新审视了深度学习中最基础、最经典的模块——3x3 卷积。 他们大胆地抛弃了复杂的自注意力机制,回归到了最纯粹的 3x3 卷积,并构建了一个兼具速度与性能的全新扩散模型架构——DiC。 返璞归真:为什么选择 3x3 卷积 在 AI 硬件和深度学习框架(如 cuDNN)的加持下,3x3 卷积是硬件支持最好、优化最彻底的算子之一。 然而,3x3 卷积也存在一个致命弱点:感受野受限。这使得它在需要全局信息的生成任务中,天然弱于拥有全局感受野的 Transformer。 通过编码器中的下采样和解码器中的上采样,模型可以在更高层级用同样的 3x3 卷积核覆盖更广的原始图像区域,从而有效弥补了感受野不足的问题。

    43400编辑于 2025-07-12
  • 来自专栏苏生不惑

    清华北大出品的神器

    比如搜索我爱你: 形容女孩漂亮的古诗,这下聊天不会词穷了: 另外再分享清华北大出的几个神器。 比如这个古代名人迁居地图: 中国历代人物 网站收录约52万多位的传记资料、著作资料,历经150余位专家学者提供学术支持才获得的宝贵成果https://inindex.com/biog 华文慕课 网站收录上百门来自北大的优质课程 ,免费报名学习,还可以获得课程证书http://www.chinesemooc.org/ 另外我还抓取了北大和清华公众号2022年的历史文章一键批量下载微信公众号文章内容/图片/封面/视频/音频,支持导出

    1.2K20编辑于 2023-02-06
  • 来自专栏腾讯教育黑板报

    到底选清华还是北大?在线等,急...

    网友纷纷表示苦恼,又开始思考一个从小到大都在纠结的问题: 到底选清华还是北大? ? 拥有9年教龄的齐霁老师,曾指导过上百位考生考入清华北大,数千位考生进入重点大学。 而像齐霁这么优秀的同事,鹅老师还有很多。

    64320发布于 2020-06-10
领券