EP 30.【生成式AI专题3】深度探讨大语言模型生态链:芯片,基建,工具,开源,应用
Listen now
Description
好久没有上新了,大家有没有想念我们呀!最近AI 的进展实在是太惊人。但是新闻看多了,自然需要有一些来自一线经验深入思考,才能窥见更接近真实的图景。这一期也是Onboard! AI 系列的第三期,接下来还准备了好几期星光熠熠的 AI 专题,请大家关注Onboard!, 不要错过哦!Hello World, who is onboard?这一期,我们将眼界放宽到大语言模型(LLM, Large Language Model)本身能力之外,看看 LLM 周边生态系统,包括硬件和软件工具链,如何随着基础模型的发展,迅速迭代,又相辅相成。嘉宾们来自生成式AI的上下游核心玩家,包括Nvidia, Google Cloud 的生成式AI平台 Vertex AI, 全球最火的AI模型库和社区平台 Huggingface, AI infra 初创公司,聊一聊从他们的视角看到的AI发展的机会,挑战与未来。这一期近2小时的讨论非常硬核,从芯片架构、GPU集群管理,到开发工具,甚至还聊到AI的社会影响,有好几个即兴的精彩话题。术语和英文不少,还请多包涵,在show notes 中尽量为大家做好笔记。话不多说, enjoy! 嘉宾介绍 Jiajia Chen: Senior Product Manager @Nvidia Omniverse, AI infra, Autonomous vehicle data platform; ex-Cisco Han Zhao: Staff software engineer @Google Cloud Vertex AI Tiezhen Wang: Software engineer @Huggingface, ex-Google Tensorflow Ce Gao: Co-founder & CEO @TensorChord, ex-Tencent, Co-chair @Kubeflow 我们都聊了什么 02:12 嘉宾自我介绍, fun fact: 最近看到的有意思的AI产品 06:53 Tiezhen 推荐的自然语言编程工具 Cursor, 嘉宾们激辩编程的未来 13:28 深度碰撞:未来还需要编程吗? 23:47 Nvidia GTC 2023 上有什么值得关注的新产品?芯片技术的下一代创新在哪里 29:38 各个大厂新出的芯片针对LLM做了哪些优化? 36:35 管理训练LLM 的大规模GPU集群有哪些挑战? 47:04 以后我们需要专用的推理芯片吗? 52:17 开源界有哪些降低LLM训练和部署成本的尝试?LLM 成本下降边界在哪里? 59:08 LLM 商业生态的未来:开源 vs 闭源?每个企业都需要自己的LLM吗? 68:50 LLM的发展对于传统的MLOps 工具链各个环节有什么影响? 78:11 LLM 会带来哪些监管和社会影响? 90:37 基础模型越来越强大,上层应用和工具如何创造价值? 100:34 对未来AI发展的期待 我们提到了什么 ChatGPT GitHub Copilot: Your AI pair programmer Cursor: an editor made for programming with AI Tabby: AI Coding Assistant AutoGPT: An experimental open-source attempt to make GPT-4 fully autonomous. HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in HuggingFace NVIDIA cuLitho - Accelerate Computational Lithography NVIDIA H100 GPU NVIDIA NeMo Framework NVIDIA Grace CPU Superchip NVIDIA NVlink: high-speed GPU interconnect Weights & Biases – Developer tools for ML Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality Alpaca: A Strong, Replicable Instruction-Following Model 重要名词(感谢 ChatGPT 帮忙!) Large Language Model:大语言模型,指用海量文本训练的语言模型,如GPT-3等。 Foundation Model:基础模型,指一个预训练模型,可以用作下游任务的起点,进行微调和迁移学习。 GPU cluster:GPU集群,多个GPU服务器联网,用来提供高性能的并行计算能力。 Distributed computing: 分布式计算,在多台计算机上协同完成计算任务。 Confidential computing :保密计算,指在不可见和不可获取的方式下处理和分析数据的技术。 Computational lithography: 计算光刻,使用计算方法来精确控制光刻过程,以产生更小更复杂的集成电路。 Electromagnetic Physics:电磁物理学,研究电磁场及其与物质的相互作用。 Photochemistry:光化学,研究光与化学物质相互作用的学科。 Computationa
More Episodes
你们期待已久的最硬核干货的OpenAI o1模型技术解读来了!上个月最值得关注的事件,或许就是9月12号OpenAI o1模型的发布了,大家对这个新的模型翘首以待许久,OpenAI CEO Sam Altman 也称之为新范式的开始。经过强化学习(Reinforcement Learning)并结合Chain of thoughts 思维链技术,o1在处理物理、数学、编程等复杂问题时,甚至和该领域的博士生水平不相上下。OnBoard! 的嘉宾,不会让你失望! Hello World, who is...
Published 10/11/24
Published 10/11/24
本期播客与《此话当真》合作,这次的创业者深度访谈,有些不一样!这位女侠一般的创业者 2016 年就开始做出海应用创业。这次的访谈,我们看看一位8年出海老兵,如何从0做到数千万用户,又如何在 LLM 大潮中,雷厉风行地带领公司将 AI 融入实践中。 Hello World, who is OnBoard!? 今天的嘉宾,是 Guru Network 创始人兼CEO, Renee 王小雨。2016年,她开发的 Castbox 成立并进军海外移动端播客市场,填补了市场空白,注册用户曾一度达到 3000 万,位列第三方播客产品榜首。如今,这位毕业于北大心理学系,有着多年开发经验的前 Google...
Published 09/19/24