我们一直在关注国外的一些 AI 产品,从大模型到应用层莫不如此,今天我们决定好好讨论一下国产大模型产品 Kimi。Kimi 的200万上下文实在太炸裂了,这么大的 “内存” 能不能改变 AI 应用开发生态?又是否会逐渐淘汰现在主流的 RAG 技术栈呢?除了一系列的技术疑问之外,还有产品、商业、估值等等,都值得我们去认真了解一下这个国产大模型领域的 “当红炸子鸡”。 如果大家有更多关于 Kimi 的使用经验和体验,记得在我们评论区分享。
(本期节目没有收钱🥹🥹🥹)
欢迎收听本期节目,更多内容信息和时间线参考下文的硬地笔记。
Special Sponsor: Podwise.ai 👑
00:00:04 Kimi的200万上下文窗口:全球领先的差异化优势
00:01:59 长上下文在应用开发中的优势
00:10:28 大模型上下文复杂性与训练计算复杂度
00:14:10 Kimi的联网功能令人惊叹
00:17:09 Kimi的爆火:超出预期的体验和2C路线的优势
00:20:51 大模型在B端的落地场景有限,2C 或为更好的选择
00:25:45 C端验证,B端落地的AI产品发展路径
00:28:44 Kimi融资背后的投资关系与组织挑战
00:32:37 RAG技术:检索增强与外部知识加载
00:41:04 大模型与检索式生成技术的互补关系
00:43:33 Kimi估值25亿美金,AI公司估值溢价明显
00:47:03 中国AI巨头之争:本土市场利弊与全球化挑战
硬地新知
欢迎关注我们