首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏服务端技术杂谈

    用了ChatGPT 之后,发现了一些副作用

    但用着用着,你会发现一个副作用,就是原本写文章缺乏结构的人,反而更加依赖 gpt,最终的结果是金字塔原理、结构化思维 chatgbt 学会了,而你还在原地踏步。

    29720编辑于 2023-08-08
  • 来自专栏量子位

    GPT-4被曝进入微软必应搜索,几周内完成

    google-search-may-feature-a-chatgpt-rival-after-all [4]https://www.cnbc.com/2022/12/13/google-execs-warn-of-reputational-risk-with-chatgbt-like-tool.html

    65130编辑于 2023-02-23
  • 畅谈GPT-5

    前言 ChatGBT(Chat Generative Bidirectional Transformer)是一种基于自然语言处理技术的对话系统,它的出现是人工智能和自然语言处理技术发展的必然趋势。

    22410编辑于 2025-12-19
  • 来自专栏睡前机器学习

    ChatGPT前世今生的真实版本(之一)

    有文章出现了ChatGBT、ChatGTP等等名字,不知道是笔误还是把G*P当成辈分。有文章说“基于ChatGPT-3.5模型”,这是没搞清背景,以讹传讹结果把ChatGPT和GPT-3.5合二为一。

    45120编辑于 2023-09-09
  • 来自专栏随手写个文章

    基于AIGC写作尝试:深入理解 Apache Hudi

    本文基于ChatGBT3.5 + ChatGBT4 完成。

    2.3K20编辑于 2023-04-18
  • 来自专栏随手写个文章

    基于AIGC写作尝试:深入理解 Dremio

    本文基于ChatGBT3.5写作。参考【1】git link【2】lakehouse【3】Document

    4.2K30编辑于 2023-04-17
  • 来自专栏随手写个文章

    基于AIGC的写作尝试:A Survey of Large Language Models(论文翻译)(上)

    自从图灵测试在20世纪50年代提出以来,人类一直在探索机器掌握语言智能的方法。语言本质上是一个由语法规则控制的复杂、精细的人类表达系统。开发能够理解和掌握语言的能力强大的人工智能(AI)算法是一个重大挑战。作为一种主要方法,语言建模在过去二十年中已经被广泛研究,从统计语言模型发展到神经语言模型。最近,通过在大规模语料库上预训练Transformer模型,提出了预训练语言模型(PLMs),在解决各种自然语言处理(NLP)任务方面表现出强大的能力。由于研究人员发现模型扩展可以提高模型容量,他们进一步通过将参数规模增加到更大的尺寸来研究扩展效果。有趣的是,当参数规模超过一定水平时,这些扩大的语言模型不仅可以实现显著的性能提升,而且还表现出一些特殊的能力(例如上下文学习),这些能力在小规模语言模型(例如BERT)中不存在。为了区分不同参数规模的语言模型,研究界为具有显著规模(例如包含数十亿或数百亿个参数)的PLMs创造了大型语言模型(LLM)这个术语。最近,学术界和工业界对LLMs的研究取得了很大进展,其中一个显著的进展是ChatGPT的推出(一种基于LLMs开发的强大AI聊天机器人),引起了社会的广泛关注。LLMs的技术进化对整个AI社区产生了重要影响,这将革命性地改变我们开发和使用AI算法的方式。考虑到这种快速的技术进步,在本次调查中,我们通过介绍背景、关键发现和主流技术,回顾了LLMs的最新进展。特别是,我们关注LLMs的四个主要方面,即预训练、适应调整、利用和容量评估。此外,我们还总结了开发LLMs的可用资源,并讨论了未来方向的剩余问题。本次调查提供了LLMs文献的最新综述,可供研究人员和工程师使用。

    2.1K40编辑于 2023-05-30
  • 来自专栏随手写个文章

    基于AIGC的写作尝试:A Survey of Large Language Models(论文翻译)(下)

    在预训练之后,LLMs可以获得解决各种任务的通用能力。然而,越来越多的研究表明,LLMs的能力可以根据特定目标进行进一步的适应调整。在本节中,我们介绍了两种主要的适应预训练LLMs的方法,即指令调整和对齐调整。前一种方法主要旨在增强(或解锁)LLMs的能力,而后一种方法旨在将LLMs的行为与人类的价值观或偏好相一致。此外,我们还将讨论快速模型适应的高效调整方法。接下来,我们将详细介绍这三个部分。

    1.5K100编辑于 2023-05-30
  • 来自专栏随手写个文章

    基于AIGC写作尝试:深入理解 Apache Arrow

    本文基于ChatGBT3.5写作,确实发现一些不足的地方:1. 没有出处;2. 有事时错误;3. 重复描述太多,需要自己提炼等,但是感官上有效率的明显提升。

    7.9K40编辑于 2023-04-15
  • 来自专栏随手写个文章

    The Cascades Framework for Query Optimization(翻译)

    (具体类似的实现可以参考Calcite TopDownRuleDriver代码)本文主要基于 Chatgbt 3.5 。

    1K40编辑于 2023-09-26
领券