时至今日,围绕 Galactica 的讨论并没有停止。 人工智能 or 科学造假制造机 人们是如何发现 Galactica 有问题的? 例如在化学反应中,要求 Galactica 在化学方程 LaTeX 中预测反应的产物,模型仅根据反应物就能进行推理,结果如下: 总体来看,Galactica 有点问题,也有点意思。 三天后 Galactica 被撤,Yan LeCun 在推特上写道:“ Galactica 演示暂时下线。不再可能通过随意滥用它来获得一些乐趣。开心吗?” 而 Meta 官方对 Galactica 被撤的反应比较平和中正。 与所有语言模型一样, 夭折的 Galactica 看起来是一个无法分辨事实与虚构的无意识机器人,距离它宣传中的能力尚有距离。
Galactica 通过自动生成二次内容来整合知识,将论文与代码连接起来,为科学研究提供动力。 目前,Meta AI 已开放了 Galactica 所有模型的源代码。 Galactica 用一个大型科学语料库训练一个单一的神经网络,以学习不同的科学语言。 尽管没有接受过一般语料库的训练,但 Galactica 在 BIG-bench 上的表现优于 BLOOM 和 OPT-175B。根据评估,Galactica 的毒性也明显低于其他语言模型。 Galactica 犹如自动驾驶 Meta AI 发布 Galactica 后,在 AI 领域引起广泛注意,并收获了一众好评。 Galactica 甚至可以针对某个领域写评论,推导 SVM ,告诉我什么是线性回归算法!只是生产内容的长度好像有限制? 真是太神奇了!
机器之心报道 编辑:陈萍、小舟 Galactica:「假装自己是个科学家。」 就像下面这样,Galactica 生成的文本看起来就是一篇论文的配置: 不止生成论文,Galactica 也可以生成词条的百科查询、对所提问题作出知识性的回答,除了文本生成外,Galactica 还可以执行涉及化学公式和蛋白质序列的多模态任务 (之前版本)Galactica 试用版地址:https://galactica.org/ 短短几天,它的界面变成这样,已经不能进行输入。 由于 Galactica 模型的试用版已下架,我们无法查看这篇文章与论文原意的差距有多大。但可以想象,初学者如果阅读了 Galactica 模型合成的这篇文章,可能会被严重误导。 这说明 Galactica 生成错误信息的情况绝非偶然。
然而,上线不到三天,Galactica 就迅速下架了,原因是 Galactica 生成的文本不严谨,不负责任地胡编乱造。 现在,Galactica 的故事又一次被提起。外媒 VentureBeat 资深撰稿人 Sharon Goldman 发布了一篇新文章,讲述了 Galactica 给 Meta 带来的经验教训。 Pineau 强调说:「Galactica 从来就不是一个产品,而是一个研究项目。 看起来,LeCun 对 Galactica 的下架一直抱有「怨气」。 Galactica 的第一作者 Ross Taylor 也在推特上发文表示:Galactica 在发布时因人手稀缺而没有对基础模型进行充分的检查,这导致了一些问题。
论文地址:https://galactica.org/static/paper.pdf 试用地址:https://galactica.org/ Galactica 模型有多强大呢,它可以自己总结归纳出一篇综述论文 Galactica 的性能在一系列科学任务上优于现有模型。在 LaTeX 方程式等技术知识的探索任务上,Galactica 与 GPT-3 的性能是 68.2% VS 49.0%。 这允许研究人员使用自然语言与模型进行交互,下图是 Galactica 的试用界面。 值得一提的是,除了文本生成,Galactica 还可以执行涉及化学公式和蛋白质序列的多模态任务。 : Galactica 的推理能力。 Galactica 与较大的基础模型相比表现强劲,并且使用 token 似乎可以提高 Chinchilla 的性能,即使对于较小的 30B Galactica 模型也是如此。
Galactica 通过自动生成二次内容来整合知识,将论文与代码连接起来,为科学研究提供动力。 目前,Meta AI 已开放了 Galactica 所有模型的源代码。 Galactica 用一个大型科学语料库训练一个单一的神经网络,以学习不同的科学语言。 尽管没有接受过一般语料库的训练,但 Galactica 在 BIG-bench 上的表现优于 BLOOM 和 OPT-175B。根据评估,Galactica 的毒性也明显低于其他语言模型。 3 Galactica 犹如自动驾驶 Meta AI 发布 Galactica 后,在 AI 领域引起广泛注意,并收获了一众好评。 在 Galactica 的实践中,研发者们还证明语言模型可以是一个精心策划的知识库,执行知识密集型的问答任务。
图片本文浅试Meta开源的大型AI语言模型『Galactica』,带大家体验安装与多场景使用。Galactica被称为“最懂科学的智能NLP模型”,能够预测蛋白质标注!创建讲义!解释数学公式!全都会! 图片图片Galactica 模型使用单个模型管理多个科学任务。可以完成推理、创建讲义、预测资料引用等,有以下特点:模型包括125M-120B参数之间的5种不同尺寸。 图片Galactica 模型在面向科学的数据集上做到了最先进的性能。 实践 安装与加载我们可以通过如下命令安装Galactica模型:pip install git+https://github.com/paperswithcode/galai注意:Galactica 模型适用于 官方网站:https://www.galactica.org/ GROBID 官方网站:https://grobid.readthedocs.io/en/latest/Introduction/ Galactica
1200亿参数语言模型Galactica,在4800万篇学术论文和各式教科书、百科等数据上训练而来。 著名的Gary·AI悲观主义者·Marcus也来吐槽,Galactica把他的出生日期、教育经历和研究领域等信息全搞错了。 虽然他也注意到,Galactica的开发者在每个输出内容后都加了“内容可能不可靠”的警告,但“潘多拉的魔盒一旦开启,就关不上了”。 与他观点一致的网友认为,Galactica是有帮助且有趣的,只是被个别人滥用了。 本意是好的 Galactica由Meta AI与Papers with Code合作开发。 Galactica: https://galactica.org/ 参考链接: [1]https://news.ycombinator.com/item?
然而,由于Galactica满嘴跑火车,它才上线短短三天,就被网友喷到下线。 那为什么ChatGPT就能在质疑的声浪中人气愈发高涨,Galactica却只能惨兮兮地被骂到下线呢? 首先,Galactica由Meta提出,大公司确实比OpenAI这样的小初创公司,面临更多的「声誉风险」。 马库斯称,自己与LeCun本是多年老友,因为嘴了Galactica几句使得两人交恶。 实际上,马库斯与LeCun的嘴仗打了好几年了,可不是光只因为Galactica下线的事情。 ChatGPT爆火,Galactica三天后便落魄下架。在LeCun对LLM疯狂输出时,马库斯自然乐于看到此景。
技术前沿 Galactica不靠谱,ChatGPT怎么样? 从GPT、GPT-2,到GPT-3,GPT一直都是最强大的语言模型。 相较于Meta的语言模型 Galactica 生成内容被大量质疑,ChatGPT 采用对话的方式,在回答的过程中知晓自己的状态,承认未知,同时也不会回答未经训练过的问题。
Galactica 学习人类科学知识的同时也揭示了大型语言模型的局限性。 Galactica: A Large Language Model for Science Galactica:科学的大型语言模型 作者:Ross Taylor, Marcin Kardas, Guillem 在本文中,我们介绍了 Galactica:一种可以存储、组合和推理科学知识的大型语言模型。我们在大量的论文、参考资料、知识库和许多其他来源的科学语料库上进行训练。 在 LaTeX 方程式等技术知识探索上,Galactica 比最新的 GPT-3 高出 68.2% 和 49.0%。 Galactica 是一种大型语言模型,在大量论文、参考资料和知识库的科学语料库上进行训练。不幸的是,与许多其他语言模型一样,Galactica 会产生统计上的胡说八道,这在科学环境中尤其有害。
这个AI名叫Galactica (简称:GAL),是最新开源的一个科学语言大模型,把AI转化为科学生产力。 并且还实现了学科“大一统”,数学、物理、计算机…这个AI都能用。 传送门: https://galactica.org/ 参考链接: [1]https://twitter.com/paperswithcode/status/1592546933679476736 [2 ]https://github.com/paperswithcode/galai [3]https://galactica.org/static/paper.pdf — 完 —
毫无疑问,ChatGPT 提供的东西是它的前辈,如微软的 Tay,Meta 的 Galactica 所做不到的,然而它给我们带来了一种问题已经解决的错觉。 从技术角度来看,据称使 ChatGPT 比几周前发布但三天后才被撤回的 Galactica 好得多的是护栏机制。 Galactica 会肆无忌惮地输出负面内容,而且用户几乎不需要付出任何努力,而 ChatGPT 有护栏,而这些护栏在大多数情况下会阻止 ChatGPT 像 Galactica 那样爆发。
Compression InternImage: Exploring Large-Scale Vision Foundation Models with Deformable Convolutions Galactica 论文 4:Galactica: A Large Language Model for Science 作者:Ross Taylor 等 论文地址:https://galactica.org/static 现在,Meta AI 团队提出了一种新的大型语言模型 Galactica,可以存储、组合和推理科学知识。 推荐:大模型能自己「写」论文了,还带公式和参考文献。
最后MolTC利用Galactica作为其骨干LLM,Galactica是一个仅限解码器的变换器,建立在OPT框架上。 经过对大量科学文献的预训练,Galactica在生物化学知识方面展现出了非凡的效果。 这种专长,特别是在解析分子序列(如SMILES和SELFIES字符串)方面,使得Galactica能够巧妙地捕捉对分子相互作用至关重要的属性。 具体来说,MolTC的目标是利用Galactica的高级推理技能来解释两个分子标记集合{Ma, Sa}和{Mb, Sb}之间的上下文相互作用。
这类模型开源的较少,包括:OPT[10], OPT-IML[11], BLOOM[12], BLOOMZ[13], GLM[14], Galactica[15]。 其中,OPT是专为开源和大模型复现提出的;BLOOM 和 BLOOMZ具有跨语言能力;Galactica, GLM, 和 OPT-IML都是经过instruction tuning的。 /bigscience-workshop/xmtf [14]https://github.com/THUDM/GLM-130B [15]https://huggingface.co/facebook/galactica
而 Meta 的 Galactica、OpenAI 的 ChatGPT 以及今年早些时候来自 Google 的 LaMDA 的诞生,似乎预示着我们即将拥有一个友好的语言界面。 事实上,Galactica、ChatGPT 和 LaMDA 之类的大型语言模型并不适合作为访问信息的渠道,基本原因有以下两个。 首先,这些模型的设计目的是创建看似连贯的文本。
另一方面,此前,许多友商都推出类似产品并引起巨大的负面舆论,这包括Google的对话模型 LaMDA 和 Meta 的Galactica、BlenderBot等。 在当时,OpenAI 的人深知,Meta 在推出Galactica仅三天就被骂得撤回该产品。现在看来,这些尖锐的批评同样适合 ChatGPT,并且非常中肯。 普林斯顿大学的天体物理学家 Miles Cranmer在 Twitter评论Galactica:“你永远不应该使用(Galactica)输出的文本或相信它。 曾经对Galactica表示称赞的图灵奖三巨头之一的Yann LeCun, 也激烈批评了语言大模型的问题“人们严厉批评大语言模型是因为它的胡说八道,ChatGPT 做了(与语言大模型)同样的事(People
紧接着11月,「科研辅助工具」Galactica问世。 论文中透露,其经过了4800万篇论文、教科书和讲义、数百万种化合物和蛋白质、科学网站以及总计1200亿个参数的百科全书上进行训练。 然而,本应实力强劲的Galactica,不仅对科学研究的总结非常不准而且还带有偏见,结果上线仅三天就被仓皇下架。 当然,接二连三的失败,并没有让Meta示弱。 因为自家Galactica的惨败,Yann LeCun对于当红炸子鸡ChatGPT,在言语中多少有些酸涩: 「它无法扩展,也永远不会成为通向强人工智能的正确道路。」
2022年11月,FAIR发布了名为Galactica的聊天机器人,它基于大语言模型构建,并接受了科学文本的训练。 与以往的FAIR模型一样,Galactica也是以开源形式发布的,旨在让研究人员深入了解其运作机制。然而,当时公众尚未充分认识到大语言模型可能产生的幻觉现象,即它们有时会给出令人信服但错误的答案。 Galactica的一些输出内容令科学家震惊,因为它提供了不科学的信息,如引用不存在的研究论文,讨论如何在浴缸中制造“凝固汽油弹”、“吃碎玻璃有哪些好处”等不当言论。 这些不当输出引发了广泛的批评,有人称Galactica“不道德”,甚至是“Meta迄今为止制造的最危险的东西”。在遭受了多天的激烈批评后,Meta的研究人员决定关闭Galactica。 在Galactica事件后,Meta变得非常谨慎,没有将代码和模型权重完全开放给所有人,而是要求研究人员申请访问权限,并且不提供商业许可。