首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏深度学习与python

    放心,GPT-3 不会“杀死”编程

    OpenAI 于 2020 年 7 月发布了 GPT-3 的 beta API。此后不久,开发人员开始试用该系统并将其“炒作”得热火朝天,由此人们开始宣称 GPT-3 具有诸多强大的功能。 GPT-3 的编程能力 GPT-3 最令人惊讶的用例之一是它能够按照自然语言提示进行编程(提示是我们输入系统的文本块)。 尽管如此,GPT-3 在它的上下文窗口内的能力还是很令人惊艳的。 缺少责任感 GPT-3 可以做很多事,但它不能评估它的答案是对是错——而它也不在乎对错。 如果你在研究一个你也不知道答案的问题,有时使用 GPT-3 就和瞎猜一样。因此,OpenAI 建议不要将 GPT-3 用于“高风险类别“的系统。GPT-3 并不值得信赖。 “—— Gwern Branwen GPT-3 的不确定性 当我们提示 GPT-3 创建代码时,我们其实正在编写软件 3.0。

    52320发布于 2021-09-22
  • 来自专栏老齐教室

    用 Python 调用 GPT-3 API

    用 Python 调用 GPT-3 API GPT-3 是去年由 Open AI 推出的语言机器学习模型。它因其能够写作、写歌、写诗,甚至写代码而获得了广泛的媒体关注! 当我询问 GPT-3 有关物理化学中更新奇的研究方法时,它无法提供明确的答案。因此,在作为教育和研究的搜索引擎使用时,应该谨慎使用 GPT-3GPT-3 没有事实核查功能。 在艺术领域,用户请 GPT-3 写一篇比较现代和当代艺术的文章。GPT-3 的潜在应用几乎在任何领域都是丰富的。 GPT-3 在回答有准确内容的基本问题方面表现得很好。 有几个有趣的数据科学和机器学习问题,我们可以向 GPT-3 询问。例如,是否可以使用 GPT-3 源自公开可用的数据集?GPT-3 的训练数据有多少等。另一个有趣的应用是问题框架。 特征工程 GPT-3 的另一个有趣的应用案例是用作指导数据科学工作的辅助工具。例如,GPT-3 能否给出一些改进模型性能的特征变换的想法?

    1.5K20编辑于 2023-03-02
  • 来自专栏量子位

    他用GPT-3实现了「量子速读」

    开发者Dan Shippers称,做出这个AI并不难,主要功臣就是语言大模型GPT-3,另外再加几行代码就搞定了。 然后再在谷歌的云端编程平台Colab上,运行下面这段Python代码,既能访问Google Drive,还能轻松实现与GPT-3的互动。 Dan介绍称,GPT-3能以任何文本素材为基础,给你整出一个聊天bot。 不过有个问题:单次能向GPT-3输入的文本字数是有限的。 第三步,当用户提问时,先通过OpenAI的API访问书中包含相关解释的小块内容,再把这些内容传到GPT-3中,整理出语言通顺的回答。

    35720编辑于 2023-04-10
  • 来自专栏数据派THU

    独家 | GPT-3“知道”我什么?

    GPT-3和BlenderBot都“知道”他是谁。这就是GPT-3对他的影响。 这并不奇怪,马特在很长一段时间内都非常活跃,这意味着他的在线足迹(online footprint)比我大。 根据GPT-3和BlenderBot,马特的成名是由于他在2012年《Wired》杂志上发表的一篇文章中提到的“史诗般的黑客行为”。 经过一点刺激,GPT-3告诉我马特有一个妻子和两个年幼的女儿(除了名字外的内容都正确),住在旧金山(正确)。 对于其他更多的个人信息,GPT-3有可能产生“幻觉”。 “GPT-3根据用户提供的文本输入预测下一系列单词。 原文标题:What does GPT-3“know”about me?

    58810编辑于 2022-09-20
  • 来自专栏chatgpt小智AI

    ChatGPT和GPT-3有什么区别?

    ChatGPT丨小智ai丨chatgpt丨人工智能丨OpenAI丨聊天机器人丨AI语音助手丨GPT-3.5丨开源AI平台ChatGPT和GPT-3都是基于自然语言处理和机器学习技术的人工智能模型,但它们之间有以下区别 而GPT-3是一种基于语言生成的模型,是在大规模文本语料库上进行预训练的,并可以应用于多个自然语言处理任务。训练数据集:ChatGPT的训练数据集主要包括对话语料库,用于训练对话生成模型。 而GPT-3的训练数据集包括大量的网页文本、维基百科和其他大型文本语料库,用于训练通用的语言生成模型。参数规模:GPT-3是目前为止参数规模最大的自然语言处理模型,其参数数量超过了13亿个。 而GPT-3可以应用于多个自然语言处理任务,包括语言生成、文本分类、命名实体识别、机器翻译等。 总之,ChatGPT和GPT-3都是非常强大的自然语言处理模型,它们之间的区别在于模型结构、训练数据集、参数规模和应用场景等方面。图片

    96340编辑于 2023-05-10
  • 来自专栏新智元

    OpenAI的GPT-3说话了,请听!

    【新智元导读】有1750亿参数的超级语言模型GPT-3自发布以来广受关注,目前已有数百名开发者和公司应用了GPT-3,但随着它的商用,很多问题逐渐暴露——消极的语言、有害的偏见等,有学者认为即使非常小心 GPT-3是全新的,也是未经驯化的,「哲学家AI」出现的问题就反应出了应用GPT-3的公司所面临的潜在危险。 Janelle Shane是GPT-3的测试用户,她用GPT-3创作圣诞颂歌、食谱、新闻标题以及其他她认为有趣的东西, ? Agarwal说:「我们内部有一个红队,他们总是试图打破这种模式,试图让GPT-3做所有这些坏事。研究人员正在试图弄清当GPT-3产生明显的性别歧视或种族主义文本时会发生什么。 想要应用GPT-3的公司和开发者还需要权衡其利弊。

    72030发布于 2021-03-10
  • 如何为科学构建GPT-3模型

    由于科学论文不易获取,我们无法轻松使用这些数据来训练像GPT-3或DALL-E这样的生成式模型。 我们如何才能获得一个用于科学的DALL-E或GPT-3?如果你身处科技行业,向朋友展示DALL-E或GPT-3等生成式AI模型的输出就像在展示魔法。这些工具代表了下一代网络。 SCIGen比GPT-3早了近20年,它表明生成看起来真实的论文相对容易。他们的系统虽然简单得多,但生成的论文被多个会议接受。 重要的是,BERT风格的模型规模远小于像GPT-3这样的大语言模型,并且它们不允许那种推动了GPT-3大部分热潮的通用提示和上下文学习。 问题依然存在:如果我们应用来自ScholarBERT的相同数据来训练一个像GPT-3那样的规模化生成模型会怎样?

    9110编辑于 2026-02-10
  • 来自专栏互联网西门二少

    GPT-3的威力,算法平台的阴谋

    1 GPT-3的惊人威力 大概一个月之前,史上最巨无霸NLP模型GPT-3问世。 然而一周之前,一些网友用GPT-3模型开发了各种各样的应用,证明了GPT-3不仅能够答题、写文章,做翻译,还能生成代码、做数学推理、数据分析、画图表制作简历,甚至玩游戏都可以,而且效果出奇的好。 只有使用分布式多机多卡,才能在有效的时间内完成GPT-3的训练。显然,这种训练模式花费只会更高。 虽然无法得知训练GPT-3到底使用了多少资源,采用了何种分布式模式,但可以肯定的是,它是个吞金兽。 现在微软的openai又propose了GPT-3。期间,NVIDIA也凑了热闹,提出了参数量达到8B的Megatron。 ?

    2.2K10发布于 2020-08-13
  • 来自专栏AI科技大本营的专栏

    GPT-3 自动帮你写

    对我来说,GPT-3 Instruct(仍处于beta版)比更通用的 GPT-3 引擎更有效果,GPT-3 Instruct(尤其是davinci-instruct)可让你给出 GPT-3 响应的特定指令 下面我将详细为大家展示下一些示例,其中 gif 里输入问题由我生成,为绿色,GPT-3 将其转换为SQL(由GPT-3生成,为蓝色),我对 GPT-3 说明(黄色)和 GPT-3 示例(橙色)。 用示例启动GPT-3 我想需要通过一个简单的示例来明确告知 GPT-3 表中的列,示例是提供 GPT-3上下文并充实一些细节的好方法,这有助于确定哪些列和表可以使用(GPT-3有时喜欢“发明”列)。 有了这个结果,我可以知道GPT-3至少在某种程度上了解了日期的概念。 将 GPT-3 “玩坏了” 刚才我列举的例子都是关于用户、收入和增长指标等基本问题,GPT-3 处理得很好。 -3 的参数 除了给GPT-3提供指导和示例外,还可以调整参数来提高 GPT-3 的有效性。

    1.2K20发布于 2021-02-05
  • 来自专栏机器学习算法与Python学习

    GPT-3加持,这是要终结编程吗?

    OpenAI 的联合创始人兼首席技术官 Greg Brockman 说:Codex 是 GPT-3 的后代。 OpenAI Codex 在人们如何使用代码方面拥有广泛的知识,并且在代码生成领域显著优于 GPT-3 了,部分原因在于该系统是在包含大量公开源代码的数据集上训练的。

    90620发布于 2021-07-27
  • 来自专栏DeepHub IMBA

    理解GPT-3: OpenAI最新的语言模型

    GPT-3的概述 关于GPT-3的主要事实: 模型分类:GPT-3有8个不同的模型,参数从1.25亿到1750亿不等。 模型大小:最大的GPT-3模型有1750亿参数。 使用下一个单词预测目标进行训练 学习方式:GPT-3通过很少的学习,学习时没有梯度更新 需要训练数据:GPT-3需要较少的训练数据。 GPT-3学习方法相对简单,可以应用于很多没有足够数据的问题。因此,与BERT相比,GPT-3应该有更广泛的应用。 GPT 3模型在这些任务上的表现很差 GPT-3还有很长的路要走 集成挑战:目前,GPT-3已经被一些使用开放AI api的用户所使用,用户社区很乐意使用GPT-3构建玩具应用程序。 GPT-3已经朝着实现这一目标迈出了第一步,但还有一段路要走。就其目前的形式而言,GPT-3是一个混合体。一种可能的方法是将GPT-3用于文本生成、机器翻译和数据有限的领域。

    2.5K40发布于 2020-09-04
  • 来自专栏AI科技评论

    Sora 面世,视频生成的 GPT-3 时刻来了

    该模型结合了GPT-3和Stable Diffusion语言和图像两种模型的互补知识,为跨越两种模态的任务创建配对训练数据,并根据该数据训练而成。 Sora 推出后,2023 年狂欢的语言大模型团队缄默了,这就好比 2019 年至 2020 年期间,当国内的团队还在追赶谷歌的预训练语言模型、OpenAI 已经推出 1750 亿参数的 GPT-3

    43010编辑于 2024-02-27
  • 来自专栏DeepHub IMBA

    GPT-3在招聘市场的应用案例介绍

    GPT-3论文本身可以在[3]中引用。 ? 在GPT-3的API中,' prompt '是提供给API的一个参数,以便它能够识别要解决的问题的上下文。 关于如何配置提示的其他创造性方法,请参阅其GPT-3 API页面[5]的示例部分。或者,您也可以参考我的代码来检查文本分类和产品命名任务的提示示例。 我们通过GPT-3来提示职位名称、描述和类别是什么样子的。我们将保留最后一个作业专业为空,作为一种向API发出信号的方式,表明这是它接下来需要填充的位置。' 记事处理)结合输出导出的质量-使我更欣赏GPT-3。 总结 本文首先简要介绍了即时工程,然后快速转移到可能适用于GPT-3的就业市场行业中的一些相关用例。 每个数据产品构建的简易性(通过提示),以及我们从中得到的结果——证明了GPT-3在成为解决基于语言的任务的通用工具方面具有巨大的潜力。

    61230发布于 2021-07-01
  • 来自专栏相约机器人

    GPT-3,价值460万美元的语言模型

    然而当 GPT-3 的论文发布后,身为忠实用户的他却感觉到了失望,本文他将深扒 GPT-3 中那些令人失望的地方。另注:这篇文章是作者最近在 tumblr 上发表的两篇文章的汇总。 第一部分 这篇论文(https://arxiv.org/pdf/2005.14165.pdf)我还没特别仔细地研究过,但下面几点是我可以肯定的: 1.1:GPT-3 有多大开创性 “GPT-3”只是 GPT 从某种意义上说,把它叫做"GPT-3"也挺合理的:它就是 GPT-2 带起来的这种风气的延续而已。 但换个角度来说,把它叫做“GPT-3”也很碍眼,而且会误导人。 现在大家都知道了这个道理,所以 GPT-3 完全称不上什么本质上的进步。(既然他们这个新的大模型能叫"GPT-3",那么上一段引文里最后提到的那仨大模型也有资格叫这个名字了。) 编者注:最后附上图灵奖得主Geoffrey Hinton对GPT-3的评价——鉴于GPT-3在未来的惊人前景,可以得出结论:生命、宇宙和万物的答案,就只是4.398万亿个参数而已。

    1.1K10发布于 2020-06-17
  • 来自专栏机器学习算法与Python学习

    火爆全球的GPT-3,到底凭什么砸大家饭碗?

    下面是人们使用GPT-3创建的一小部分示例: GPT-3能做什么 1、基于问题的搜索引擎:就像Google,键入问题,GPT-3会将定向到相关的维基百科URL作为答案。 7、文本的风格迁移:以某种格式编写的输入文本,GPT-3可以将其更改为另一种格式。 8、编写吉他曲谱:这意味着GPT-3可以自行生成音乐。 9、写创意小说。 的确,疯狂的鼓吹情绪变得如此强烈,以至于OpenAI CEO本人都发Twitter说:GPT-3被过度宣传了。 ? GPT-3也会犯低级错误 尽管GPT-3可以编写代码,但我们很难判断其总体用途。 用GPT-3创造出小说的研究人员Branwen指出,“抽样可以证明知识的存在,但不能证明知识的缺失”,可以通过微调提示来修复GPT-3输出中的许多错误。 另一个严重的问题是GPT-3的输出存在偏见。

    1.1K20发布于 2020-08-28
  • 来自专栏大数据文摘

    微软与OpenAI达成合作,获得GPT-3独家使用授权

    从微软和OpenAI两方来看,这是一场双赢的交易:微软希望将GPT-3技术用在azure平台,扩张其技术能力;而OpenAI也通过微软获取到了GPT-3更多的应用场景和商业价值。 最近也开放了GPT-3的API接口,不用码代码也能轻松上手,并且发布了不少使用名额,供个人和企业探索GPT-3的使用可能,据OpenAI称,这一模型已经通过接口被数万人使用。 不过,6月份开放的GPT-3的API接口也让很多网友玩儿的不亦乐乎,做出了一些很酷的demo,在Twitter引起了热议,网友纷纷表示,“GPT-3被玩坏了”。 比如旧金山一位开发商和艺术家Arram Sabeti就在推特上说:“玩GPT-3就仿佛可以看到未来。”这几乎就是自GPT-3发布以来社交媒体上大部分人对这个强大语料库的反应。 Sabeti在博客上展示了他用GPT-3做的许多AI生成文本项目,比如可以用AI写一篇短篇小说,用AI写歌、新闻稿等等。他还发了一篇博文称,“GPT-3几乎什么都能写!”

    1.1K50发布于 2020-09-27
  • 来自专栏AI科技大本营的专栏

    OpenAI 真的 Open 了,GPT-3 使用将更加开放

    OpenAI 在 2020 年 6 月开放了 GPT-3 API 接口,但只是开放商用,随即吸引了大量的公司:客服、视频游戏、辅导服务和心理健康应用程序等。 近日,OpenAI宣布,将取消访问其自然语言处理程序GPT-3 API 的等候名单。 GPT-3 是一种大型语言模型,可以自动编写电子邮件和文章、撰写诗歌、跨十几种编程语言创建代码等等。 根据 OpenAI 的说法,“安全进展”使 GPT-3 从内测转向测试版成为可能。 例如,OpenAI 声称,具有共享基础 GPT-3 的自然语言生成能力的指令模型更善于理解和遵循,“用几句话向 6 岁儿童解释登月”这样的指令。 GPT-3 的广泛应用是在微软推出 Azure OpenAI 服务之后推出的,该服务旨在让企业能够访问 GPT-3 及其衍生产品,以及安全、合规、治理和其他以业务为中心的功能。

    82530编辑于 2023-04-14
  • 正弦和余弦函数在GPT-3中起何作用

    GPT-3中,正弦和余弦函数在位置编码中起到了关键的作用。以下是关于正弦和余弦函数在GPT-3中作用的详细解释: 1. 位置信息的编码 GPT-3的Transformer架构本身并不包含输入序列中单词的顺序信息。为了弥补这一缺陷,GPT-3采用了位置编码的方式。 这使得GPT-3能够更好地处理长序列文本,并捕捉其中的长距离依赖关系。 4. 与词嵌入的结合 位置编码与词嵌入(word embeddings)相加后作为Transformer模型的输入。 总结 正弦和余弦函数在GPT-3中通过生成相对位置编码,为模型提供了输入序列中单词的顺序信息。

    25310编辑于 2025-04-05
  • 来自专栏AI科技大本营的专栏

    训练 GPT-3,为什么原有的深度学习框架吃不消?

    在这些不同领域中,一个共同的特点就是模型规模越来越大,比如GPT-3模型的参数量达到1750亿,即便拥有1024张80GB A100, 那么完整训练GPT-3的时长都需要1个月。 (技术详情请查看《GPT-3模型为何难以复现?

    60210编辑于 2023-05-08
  • 来自专栏MixLab科技+设计实验室

    简单粗暴,容量大,效果好,1750亿参数的GPT-3

    据说需要耗费千万美元的资金才能训练一个gpt3 gpt-3使用的数据集容量达到了45TB, gpt-3具有1750亿个参数, 一个gpt-3 模型可能需要要 700G的硬盘空间来存储。 区别在于 GPT-3 在 transformer 的各层上都使用了交替密集和局部带状稀疏的注意力模式,类似于 Sparse Transformer 。

    1.7K40发布于 2020-06-04
领券