EP53 200万的Kimi能否重塑AI应用开发?

EP53 200万的Kimi能否重塑AI应用开发?

50分钟 ·
播放数4588
·
评论数26

我们一直在关注国外的一些 AI 产品,从大模型到应用层莫不如此,今天我们决定好好讨论一下国产大模型产品 Kimi。Kimi 的200万上下文实在太炸裂了,这么大的 “内存” 能不能改变 AI 应用开发生态?又是否会逐渐淘汰现在主流的 RAG 技术栈呢?除了一系列的技术疑问之外,还有产品、商业、估值等等,都值得我们去认真了解一下这个国产大模型领域的 “当红炸子鸡”。 如果大家有更多关于 Kimi 的使用经验和体验,记得在我们评论区分享。

(本期节目没有收钱🥹🥹🥹)

欢迎收听本期节目,更多内容信息和时间线参考下文的硬地笔记。

本期 Sponsors

Special Sponsor: Podwise.ai 👑

硬地笔记

00:00:04 Kimi的200万上下文窗口:全球领先的差异化优势

00:01:59 长上下文在应用开发中的优势

00:10:28 大模型上下文复杂性与训练计算复杂度

00:14:10 Kimi的联网功能令人惊叹

00:17:09 Kimi的爆火:超出预期的体验和2C路线的优势

00:20:51 大模型在B端的落地场景有限,2C 或为更好的选择

00:25:45 C端验证,B端落地的AI产品发展路径

00:28:44 Kimi融资背后的投资关系与组织挑战

00:32:37 RAG技术:检索增强与外部知识加载

00:41:04 大模型与检索式生成技术的互补关系

00:43:33 Kimi估值25亿美金,AI公司估值溢价明显

00:47:03 中国AI巨头之争:本土市场利弊与全球化挑战

硬地新知

  • AGI: AGI是人工智能(Artificial General Intelligence)的缩写,指的是具有与人类智能相等或超过的智能水平的人工智能系统。AGI具有广泛的学习能力和适应能力,能够在各种复杂任务上表现优秀。
  • ARR: ARR是Annual Recurring Revenue的缩写,指的是一年内重复发生的收入。在讨论企业的经济情况或者估值时,ARR是一个重要指标,可以帮助衡量企业的稳定性和增长潜力。
  • RAG: RAG是Retrieval-Augmented Generation的缩写,是一种基于检索式生成的语言模型。RAG模型将检索和生成两个任务结合起来,能够根据检索到的信息生成相应的文本,提高文本生成的准确性和可控性。
  • Transformer XL: Transformer XL是一种基于Transformer架构的模型,专门用于处理超长上下文的任务。Transformer XL通过引入相对位置编码和循环机制,能够更好地处理长文本序列,提高模型在超长上下文任务中的表现。
  • 二次方关系: 二次方关系是数学中的一个重要概念,指的是两个变量之间的关系可以表示为一个二次方程。二次方关系经常出现在科学、工程等领域的建模和分析中,对于研究变量之间的复杂关系非常有用。

欢迎关注我们

  • 官网:hardhacker.com
  • Discord 社区:discord.com
  • 用爱发电不容易,请我们喝咖啡☕️:afdian.net
  • 公众号/小红书:硬地骇客
  • 商务合作:hardhackerlabs@gmail.com
展开Show Notes
HD387493m
HD387493m
2024.3.27
作为一名听众,对于主播把埃森哲级别的咨询比作卖课,实在是被主播既不懂咨询又这么轻易说出不负责任的言论感到震惊。有那么多傻的客户为网上就能找到的课花那么多钱吗?为什么咨询要叫项目呢?卖课能称得上一个项目吗?还有tob付费场景已经比toc多多了,这波AI是语言模型,为什么要在工厂里找场景?工厂的业务不涉及多少语言啊。不了解就没有发言权!
王三白:也不光是对话聊天这种场景,编程语言,数控机床的过程编码,机器手的移动路径都是语言。
归归-Anson
:
感谢你的批评和表达。确实,我可以理解专业咨询项目的复杂度和专业性。
水山识流
水山识流
2024.3.27
你看到的,都是因为10亿美金进来的投放。自媒体博主全部都被找到了。
Xieisabug
Xieisabug
2024.3.28
本来kimi路人感是很好的能力也强,但是这波铺天盖地的营销真的败好感,太多乱吹的文章了
归归-Anson
:
哈哈哈,对有些人来说反而适得其反了。
24:43 像ERP一样进入B端核心应用或流程才有较大价值
kimi 最近已经频繁过载了😄
宗权
宗权
2024.3.31
分享一个好用的Kimi sdk https://github.com/pontjs/moonshot-node
有了 podwise ,是不就不需要听播客了(。òᆺó)♫
周声
周声
2024.4.21
好奇一下,ai 圈外的非技术人,知道“上下文长”是个什么概念吗?
心灿:举个例子,文章有1万字,机器都是一个token处理的。假如1个token占8个字符,机器读到后面可能会忘了(应该是权重变得很低)开头的token。所以支持长上下文很重要,不然给他喂一堆资料,开头的内容全忘光了。
flowball
flowball
2024.3.27
kimi是长,但对语言的逻辑还掌握不好,问它江南七怪是谁能说对,但几男几女就不知道了
cartman7882
cartman7882
2024.4.23
实控人套现的新闻出来了。。。
HD154910y
HD154910y
2024.4.10
kimi支持实时联网?
22:49 22:46 寻求将能源转化为智能的最优解👍👍👍👍
最好的AGI
我就是做新能源的,深耕绿电交易,风力发电光伏发电的绿证开发,碳资产开发。
我也有个播客“能源聚宝盆”
HD806539w
HD806539w
2024.3.30
49:20 长上下文对于需要多轮对话的智能体是非常有帮助的。他的8k和128k的API能力一样,价格8k低很多,这样就很好用。openai的API不同大小的上下文价格都一样,而且输出是输入的三倍
41:54 RAG技术有一个好处,就是可以消除部分AI幻觉
05:19 其实只是长,意义不太大。Kimi对于文本的理解能力还太弱。比如别的大模型接受不了的大文件,像是一份财报,Kimi可以读下来但是他分析不出来那些财务数据之间的关联关系,更分析不出来通过那些数据会有什么隐藏的财务风险
27:50 埃森哲向企业“卖课”赚到了 😅
杰的N次方:这是前东家该赚滴哈
鲜世丹
鲜世丹
2024.3.27
12:13 没有看到播客里面提到 kimi 长文本工程的文章
48:28 搜索密塔阔以metaso试试哈,现在的suno也是走kimi这个传播路径哈…
yangong
yangong
2024.3.27
怎么判断长上下文是不是隐式RAG?
知世郎z
知世郎z
2024.3.27
29:49 好像用的是火山