05 爱、死亡、机器人:和哲学家辩论10个科技伦理问题
Listen now
Description
这10个问题分别是—— 1、为什么 AI 出事故,人类会更愤怒、更苛责? 2、和机器人可能有真爱吗?还是机器通过算法拿捏了我们? 3、AI 有可能演化出情感吗?or,以死相逼,AI会愿意接受1+1=3吗? 4、AI 可以实现“人类增强”的野心吗? 5、阿西莫夫“机器人三定律”中的人机关系过时了吗? 6、OpenAI 这样的顶级大模型公司如何做价值对齐? 7、 哲学家让大模型理解为什么不能歧视女性,分几步? 8、AI 距离理解“无边落木萧萧下”还有多远? 9、 为什么很多 AI 哲学家都是动物伦理学家?or,动物智能+机器智能=人类? 10、哲学家如何用实验的方法研究科技伦理问题? 祝你收听愉快! 【本期课代表】 朱林蕃博士,复旦大学科技伦理人类未来研究院担任副研究员。研究领域为科学哲学、科技伦理。 【课代表观点】 00:11 哲学家关注抽象问题,大众关心AI对具体生活的影响 1:28 AI医学影像在欧美已经出现了问题 03:39 当AI出现错误,我们往往对它“Even Blame More” 3:52 庄子“空船理论”:人不会对没有主体性的船生闷气 05:36 新技术落地是“机制性”结果,却没有征求“我”的意见 7:13 人类对非人类伴侣的想法,在古希腊就出现了 9:43 为什么对AI 伴侣会有背叛感?是机器通过算法拿捏了我们? 12:35 以死相逼,AI会承认1+1=3吗? 14:22 硅基生命是永恒的,无法理解生命的脆弱性 16:00 “黑白玛丽”思想实验:了解和理解本质上不同 17:26 一些哲学家试图用AI做“人类增强”:更聪明、更“道德” 21:13 阿西莫夫新定律的危险:以集体名义牺牲个人 22:21 机器或许不该卷入深度的价值判断 24:34 OpenAI这些公司用红白攻防演练做价值对齐 27:00 哲学家已经加入AI的价值对齐 27:47 让大模型理解为什么不能歧视女性,分几步 29:38 国外大模型团队成员的“哲学家浓度” 30:58 更进一步,让AI理解“无边落木萧萧下” 32:43 和机器智能相比,人类的效率高得多、能耗低得多 33:41 AI伴侣产品普遍面临算力成本问题 35:12 哲学家讨论机器人,常常拿动物做标的 38:26 机器学习破解出了真菌的50多个单词 39:12 理解动物可能会走向可怕的结果 40:04 我经常思考如何退出智能社会 41:02 一定要考虑“数据销毁”的问题 41:55 用实验的方式研究科技伦理问题 43:50 用眼动仪发现人类真正的道德直觉 46:35 道德心理实验本身的伦理问题 【关于AI课代表】 「AI课代表」是一档传递大模型真知灼见和最佳实践的科技播客,由「声动活泼」参与策划和后期制作,现已在小宇宙、喜马拉雅、网易云音乐、苹果podcast等平台上线。 每期节目,我们会邀请在大模型领域有想法的开发者、技术专家和公司创始人担任“轮值课代表”,结合当下热门议题,分享他们最新鲜、最一手的观察和经验。如果你对我们的节目有什么建议,或者希望成为我们的下一位“课代表”,欢迎给我们写邮件。 邮箱:[email protected] 【制作团队】 策划:nada、大帅 后期:kk
More Episodes
本期播客邀请了个人非常喜欢的独立开发者碎瓜。  很多朋友是因为“寻隐”(queryable)这款AI相册搜索应用认识碎瓜的,并深受启发,一些人还参考它的开源代码,做了边缘侧的部署。  这其中也包括一些大公司。  尽管收获了hacker news榜首、copilot trending、应用上线15天用户突破40万等诸多成就,但碎瓜始终在过一种简单的创作者的生活。  这是他特别打动人的地方。他表明了一个人在技术浪潮中如何做到既全情投入又冷静旁观。...
Published 08/13/24
最近,Meta发布了有史以来最大的开源模型Llama 3 405B。 除了把开源模型的参数和能力拉到一个新高度之外,在Llama 公开的上百页技术报告里还有一个趋势也非常值得关注,那就是加大了训练过程中代码的权重,并且特别强调了AI编码能力的提升。 AI 编码,曾被认为是这波生成式AI中最先可能落地的场景。但除了偶尔引发对程序员失业的担忧,AI 编码相比聊天、搜索甚至无人驾驶,有点不太出圈。所以AI...
Published 08/08/24