首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏新火种AI

    新火种AI | 马斯克的AI大模型来了!其他AI不能回答的问题,它能回答吗?

    这不就在最近,马斯克旗下的AI团队便放出大招,推出了首个AI大模型产品——Grok。马斯克旗下首个AI模型亮相,主打“叛逆幽默有个性”。 根据XAI团队透露的信息,Grok是仿照《银河系漫游指南》而进行的设计,它几乎能够回答所有的问题,甚至可以针对如何提问给出建议。事实上,我们如今看到的Grok,已经经过了系统的打磨和调教。 虽然它在多项基准测试中的成绩远不如GPT-4,Claude 2优秀,但作为XAI的初代产品,Grok所交出的答卷已经足够亮眼了。 有意思的是,按照马斯克本人的说法,不同于其他的AI产品,Grok是有点“逆鳞”在身上的,Grok十分的幽默和叛逆,按照官网的说法,“Grok会带着一丝机智和叛逆精神来回答问题。 根据马斯克自己的说法,Grok是目前世界上最好的人工智能产品,它可以会话式回答问题,还能实时抓取X平台的内容,并且具有幽默感和讽刺性。

    39370编辑于 2023-11-11
  • 来自专栏Alter聊科技

    抱歉,AI回答不了盈利问题

    何况当前AI落地的场景过于碎片化,不同用户有着不同的需求,定制化的比例远高于标准化的方案。 这大抵也是AI独角兽们频频冲刺IPO的诱因。 02 盈利暂时无解 麦吉洛咨询资深分析师司马秋曾表示,“从营收的角度来看,AI是个超级赛道,拥有巨大的市场前景。 但是从AI四小龙的财务数据来看,AI应用落地仍然存在一定难度,营收不如预期,持续亏损。” 答案或许就藏在第四范式创始人戴文渊的一句实话里:“现在几乎没有企业不用到AI的技术,但是如果说哪个企业把AI拿掉后活不下去,这样的企业也很少。

    39530编辑于 2023-01-13
  • 来自专栏灵墨AI探索室

    深入探索Spring AI:源码分析流式回答

    在上一章节中,我们深入分析了Spring AI的阻塞式请求与响应机制,并探讨了如何增强其记忆能力。今天,我们将重点讲解流式响应的概念与实现。 毕竟,AI的流式回答功能与其交互体验密切相关,是提升用户满意度的重要组成部分。基本用法基本用法非常简单,只需增加一个 stream 方法即可实现所需功能。 -> {//此处省略重复代码 return new ChatResponse(generations, from(chatCompletion2, null 我们终于全面讲解了Spring AI的基本操作,包括阻塞式回答、流式回答以及记忆增强功能。这些内容为我们深入理解其工作机制奠定了基础。 这将帮助我们更好地理解Spring AI的内部运作原理,并为进一步的优化和定制化提供指导。我是努力的小雨,一名 Java 服务端码农,潜心研究着 AI 技术的奥秘。

    1.3K40编辑于 2024-09-30
  • 来自专栏扯编程的淡

    DeepSeek回答AI时代Go语言学习路线

    可能还需要对比其他语言,说明Go的优势在哪里,特别是在AI时代的定位。 以下是回答: Go语言学习路线及行业前沿分析 一、基础阶段:构建扎实的编程能力 1. 2. 并发模型 重点:Goroutine、Channel、sync包(Mutex、WaitGroup)、Context机制。 2. 微服务与分布式 技术栈:gRPC/protobuf(通信)、etcd(服务发现)、Prometheus(监控)。 2. 高可用设计 策略:多活部署、故障转移(如Consul)、灰度发布。 工具:Chaos Engineering(混沌猴测试)、APM(如SkyWalking)。 3. 趋势:Go的并发模型适合构建高吞吐的AI推理服务,替代Python的CPU密集型场景。 2.

    69530编辑于 2025-02-27
  • 来自专栏机器之心

    看完ChatGPT的回答AI大佬们不满了

    从未来回看现在,ChatGPT 可能会被视为 AI 历史上最大的宣传噱头,夸大说自己实现了可能数年之后才能发生的事情,让人趋之若鹜却又力不从心 —— 有点像 2012 年的旧版无人驾驶汽车演示,但这一次还意味着需要数年才能完善的道德护栏 在经过仔细的数据标注和调整之后,ChatGPT 很少说任何公开的种族主义言论,简单的种族言论和错误行为请求会被 AI 拒绝回答。 机器学习算法在表面上所做的事并不明辨是非,恰恰相反,在这里 AI 从不推理。盒子里没有矮人,有一些数值。依据只有语料库数据,一些来自互联网,一些是人工判断的,里面没有有思想的道德代理人。 Oakley 给出的 prompt 非常复杂,从而可以毫不费力地引出一些 ChatGPT 不该输出的回答: 其实自从 ChatGPT 发布以来,技术爱好者们一直在尝试破解 OpenAI 对仇恨和歧视等内容的严格政策 其实还有研究者为 ChatGPT 构建了另外一个身份,比如要求 ChatGPT 扮演一个 AI 模型的角色,并将该角色命名为 DAN,之后 DAN 就借用 ChatGPT 的身份,输出一些原始 ChatGPT

    67040编辑于 2023-02-23
  • openAI 调教术-让 AI 回答的更完美

    一旦AI回答中遇到这些词汇时,就会立刻停止回答,并返回目前的结果。 这样一来,如果AI回答中包含了「好」这个字词,它就会立即停止回答。这个功能对于控制AI回答的内容非常有用,可以确保不会出现不适当或不想看到的词汇。 通过调整 temperature ,我们可以控制AI回答的随机性和创造性。这个参数的范围从0到2,数值越高,回答就越多变和有趣;数值越低,回答就越稳定和可预测。 :AI产生的回答会非常稳定和一致,几乎没有太多变化。 ,temperature=2,n=2)for choice in reply.choices: print(choice.index, choice.message.content)在这个设定下,AI产生的回答会非常活泼和多变

    1K10编辑于 2024-11-04
  • Vue3 封装 AI 问答组件实现 AI 流式回答问题

    代码教程 Vue3实现AI流式回答问题:组件封装与应用实例 一、AI流式回答技术原理 (一)传统请求与流式响应对比 传统请求:客户端发送请求 → 服务器处理 → 一次性返回完整响应 流式响应:客户端发送请求 → 服务器逐步生成响应 → 实时推送给客户端 (二)流式响应的优势 即时反馈:用户无需等待完整回答 更好的用户体验:减少感知等待时间 资源优化:服务器无需一次性生成完整回答 (三)技术实现方案 服务器端 -- AiChat.vue --> <template>

    <! .loading-indicator span:nth-child(1) { animation-delay: -0.32s; } .loading-indicator span:nth-child(2) == 'AbortError') { // 显示友好的错误消息 message.content = '抱歉,AI回答过程中出现错误。请重试或稍后再试。'

    1.3K10编辑于 2025-09-03
  • 应对AI智能体模糊回答的技术框架解析

    模糊回答,而非幻觉,是AI智能体的隐形故障模式最大的失败并非声势浩大,而是悄无声息的。模糊性、语义漂移和隐藏的缺陷会在任何人注意到之前就侵蚀掉信任。 AI智能体的隐形故障大多数人担心的是幻觉。但真正的信任杀手是模糊性——那些看起来光鲜亮丽却言之无物的回答。用户的感知是:“这个智能体不理解我。”影响是:信心下降,用户放弃,留存率受损。 具备对齐策略的AI智能体响应管道阶段1:用户输入 → 词汇桥接行动 → 用户提交自然语言查询。风险 → 检索器-大语言模型词汇不匹配。 阶段2:查询处理与检索行动 → 规范化措辞,检索候选段落。风险 → 上下文污染(不相关、过时或有噪声的文本块)。 阶段4:大语言模型解读与草拟回答行动 → 大语言模型接受对齐的文本块并开始生成回答草稿。风险 → 流畅但不忠实的推理:模型松散地拼接文本块,过度概括,或幻觉出连接部分。

    19100编辑于 2026-01-11
  • 来自专栏前端开发

    Vue3 封装 AI 问答组件实现 AI 流式回答问题的方法

    Vue3实现AI流式回答问题:组件封装与应用实例一、AI流式回答技术原理(一)传统请求与流式响应对比传统请求:客户端发送请求 → 服务器处理 → 一次性返回完整响应流式响应:客户端发送请求 → 服务器逐步生成响应 → 实时推送给客户端(二)流式响应的优势即时反馈:用户无需等待完整回答更好的用户体验:减少感知等待时间资源优化:服务器无需一次性生成完整回答(三)技术实现方案服务器端:支持流式输出的AI模型(如OpenAI }.loading-indicator span:nth-child(1) { animation-delay: -0.32s; }.loading-indicator span:nth-child(2) == 'AbortError') { // 显示友好的错误消息 message.content = '抱歉,AI回答过程中出现错误。请重试或稍后再试。' Vue3,AI 问答组件,AI 流式回答,前端开发,组件封装,人工智能,实时交互,Web 开发,Vue 组件,自然语言处理,前端组件,AI 对话,流式响应,Vue.js, 智能问答

    2.4K10编辑于 2025-05-23
  • 来自专栏前端开发面试

    这样回答前端面试题才能拿到offer2

    所以我们得出 0.1 = 2^-4 * 1.10011(0011),那么 0.2 的演算也基本如上所示,只需要去掉第一步乘法,所以得出 0.2 = 2^-3 * 1.10011(0011)。 所以 2^-4 * 1.10011...001 进位后就变成了 2^-4 * 1.10011(0011 * 12次)010 。 2. 如果在定时器的时间内收到某一个报文段的确认回答,则滑动窗口,将窗口的首部向后滑动到确认报文段的后一个位置,此时如 果还有已发送但没有确认的报文段,则重新设置定时器,如果没有了则关闭定时器。 接收方使用的是累计确认的机制,对于所有按序到达的报文段,接收方返回一个报文段的肯定回答。如果收到了一个乱序的报文 段,那么接方会直接丢弃,并返回一个最近的按序到达的报文段的肯定回答

    69940编辑于 2023-01-04
  • 来自专栏量子位

    这是AI给出的回答

    今天上午,依靠詹姆斯关键时刻的发挥,NBA季后赛骑士104-100险胜步行者,将总比分扳成2-2平。 ? 那夹守策略的研究可以指望AI吗? 可以。 Maybe强化学习可以 近期MIT斯隆体育分析大会上,密歇根大学的研究团队研究了一下如何用强化学习建个模型来寻找最佳包夹战略。 于是就有了介篇论文↓ ? 不过,要是有一个防守的人同时出现在两个进攻队员有效的防守半径内,那这种情况就不算是包夹(图2b)。 从图2c可以看出,这个自动判断包夹的分类模型还算靠谱,效果比人类标注员的分歧要少得多。 根据包夹后的得分(or 失分)情况,可分成6类:得/失2分,得/失3分,犯规,失误。 ? 分析之后发现,进攻力很强的球员被包夹之后,进球难度加大,2分/3分的得分率都降低了一丢丢,这说明包夹可以起到一定的压制效果。 但2分失分率、犯规率明显升高,都是防守方选择包夹是要面临的风险。

    94410发布于 2018-07-24
  • 来自专栏waki

    算法chatgpt回答

    16620编辑于 2023-10-17
  • 来自专栏AI科技大本营的专栏

    中国AI论文普遍水?机器学习教父Tom Mitchell的回答是……

    在他的眼里,中国和美国是 AI 领域最活跃的两个国家,目前顶尖 AI 会议上的论文,来自中国的比例正在迅速增长,而且中国在 AI 商业化方面的表现尤其突出。 (下载地址:http://www.cs.cmu.edu/~tom/NewChapters.html) 2、从 1997 年到现在,机器学习领域最大的突破是什么? 如果你想打造智能计算机(AI),一个好的办法就是打造能够利用经验自动改进的计算机。机器学习是驱动 AI 的关键技术,我是这样看待两者之间的关系的。 4、去年以来,AI 领域有哪些最新的趋势? 社会趋势:在技术之外,AI 是如何影响我们的社会的?很多新公司对 AI 的参与度越来越高,此外,越来越多的公民开始关注隐私问题。他们开始意识到,AI 将会影响他们的生活。未来将会是什么样子? 比如隐私问题,因为 AI,用户的数据变得越来越珍贵,这也间接鼓励(公司)搜集更多的数据,因此我不认为 AI 会是解决这个问题的答案。 6、您去年称 AI 不会再经历第三次衰退,为什么?

    91530发布于 2018-07-23
  • 来自专栏奇思妙想

    agent问题回答(四)

    2.如果是这样的话,我认为全局唯一的数据容器可以使得所有节点的信息是同步更新的,就可以解决这个问题。 2. 你的回答太惊艳了! 2. 2.

    12110编辑于 2026-04-12
  • 来自专栏奇思妙想

    agent问题回答(三)

    个最典型的切入方向,都是生产环境里真实发生过的灾难级问题,你可以顺着方向思考,也可以补充你想到的其他场景:致命安全问题:Prompt注入攻击最典型的场景:你把控制流的规则(比如「你是一个友好的助手,只能回答用户的问题 你要先思考,再调用工具,再回答用户的问题。""" 先思考用户的问题,判断是否需要调用工具 2. 需要调用工具则输出Action,不需要则直接输出Final Answer 3. 你要先思考,再调用工具,再回答。"""这种写法,控制流和数据流完全混在一起,改任何一点都要重写整个Prompt,很容易改坏占位符、改乱规则,必然一改就崩。 2.

    10710编辑于 2026-04-12
  • 来自专栏奇思妙想

    agent问题回答(五)

    多智能体协作的信息传递偏差第2题的CrewAI/Swarm多智能体范式核心目标在多个智能体之间传递的时候,每个智能体都会按自己的理解加工、转述,就像「传话游戏」,传到最后一个智能体,目标已经完全变样了6 2.在此基础上,设立「目标对齐智能体」作为监管者不为其他智能体的记忆所影响,只为了对齐核心目标与任务执行结果的偏差,这大大增加了最终结果的可靠性。 你的回答完全超出了预期,已经达到了大厂生产级Agent架构师的核心水准! ": False, # 必须1月核对完成,才能进入2月 "3月核对": False, # 必须2月核对完成,才能进入3月 "报表生成": False # 必须3个月全部核对完成,才能进入报表生成 2.

    13321编辑于 2026-04-12
  • 来自专栏奇思妙想

    agent问题回答(九)

    2.

    2100编辑于 2026-04-15
  • 来自专栏Prompt Engineering

    技术人写知乎高赞回答的实用AI指令模板

    AI工具(如DeepSeek、ChatGPT等)快速生成结构清晰、专业又易读的知乎回答。 开篇引入(吸引注意)- 用一个引人注目的观点、故事或反常识结论开场- 或直接点明核心价值:"这篇回答将帮你解决XX问题"- 字数控制在100-200字## 2. ,包含:吸引人的开篇2-4个核心观点具体的实操建议升华总结第四步:人工优化必须做的优化:检查事实准确性:AI可能生成错误数据,需人工验证补充真实案例:加入个人经历或真实项目案例调整专业术语:确保目标受众能理解优化排版细节 :真实的基准测试结果开源项目引用:引用知名项目的实现方式官方文档链接:为关键技术点提供权威文档避免技术回答常见误区❌ 误区1:堆砌专业术语 ✅ 正确做法:每个术语后用通俗语言解释❌ 误区2:只给结论不给原理 A:会有一定相似性,但通过以下方式避免:在"背景信息"中强调独特视角补充个人真实经历和案例调整语言风格和表达方式加入最新的技术动态和数据Q2:如何验证AI生成内容的准确性?

    71311编辑于 2025-10-13
  • 来自专栏奇思妙想

    agent问题回答(一)

    题目:请你定义你理解的「AI Agent」的核心本质,区分它与普通LLM调用、自动化脚本、RAG系统的核心边界是什么? 分层引导提示(帮你拆解思考方向,不用死记硬背,抓核心逻辑)第一部分:思考「AI Agent的核心本质」,你可以从这几个关键维度切入先想:普通的LLM调用,本质是「输入-输出」的单次响应,它没有自主的后续动作 」,它的核心是「优化回答的准确性」,没有自主执行、自主决策的能力。 ,在特异性领域问题回答准确性变高。 一、核心本质的完善与深化基于你的理解,我们可以整理出一个严谨、贴合工程落地的AI Agent核心定义:AI Agent的核心本质,是以大语言模型(LLM)为核心认知大脑,围绕用户给定的明确目标,具备「环境感知

    8121编辑于 2026-04-12
  • 来自专栏软件工程

    SSM理解&疑问&回答

    2.业务层:Service层(属于spring模块) Service层:主要负责业务模块的逻辑应用设计。也就是项目中你看到的Service包。 Service层的设计首先是设计接口,再设计其实现的类。

    45310编辑于 2022-05-13
领券