【待更新】《深度学习调优手册》- 系统最大化深度学习模型性能 非官方支持的Google产品 由Google Research和Harvard University研究人员联合出品。 翻译By我。 先在github翻译完,在上传到博客。 2023-01-26 #人工智能
重复的眼泪 就是你自欺的安慰奖 转载自 :港樂講樂公众号 歌有歌命。其实每首歌从旋律创作到录音到正式出街面世,无论是多么资深的音乐从业者都没法预料其受欢迎程度,有些歌被选中做主打歌却鲜有人记起,有些原本以为是sidetrack却能成为大热之作。 词人黄伟文曾说”陈奕迅冇sidetrack”。虽有些微浮夸之嫌,但因为Eason的演出多,他的粉丝基数也十分庞大。在某一个演唱会选一首sidetrack来重绎,加上如今快如闪电的网络传 2023-01-20 #音乐
各式各样的self-attention 参考:李宏毅老师的各式各样的Attention self-attention只是模型的一部分。只有当输入向量维度过大时候,加速、优化self-attention才起作用。 2023-01-18 #深度学习 #人工智能
大型语言模型可以成为MNIST的few-shot分类器吗 具体代码见:colab 众所周知,像GPT-3等大学语言模型善于few-shot learning。 那能不能在图像上发挥作用呢? 研究者将图像翻译成ASCII来让语言模型理解图像。 2023-01-16 #人工智能 #自然语言处理
计算神经科学能否成为未来人工智能的发展方向? 我个人认为计算神经科学对AI的帮助是微乎其微的,过去没有,未来十年也难以有,就算现在AI可能正面对瓶颈期,我也并不觉得计算神经科学是有效的破瓶器。大二上学院开设有一门神经科学,在相对悲观的态度下,我也没有选这门课。**以下来自知乎用户周鹏程的回答,**我觉得值得一看。 刚刚过去的一个周末,在twitter上的神经科学圈发酵了一起不大不小的争论,引得领域内好几个著名学者,包括Yann Lecun的 2023-01-01 #人工智能
人工智能辅助的超分辨率宇宙学模拟 摘要传统“星系形成”的宇宙学模拟受到了有限计算资源的限制,而这篇论文试图借助深度学习来解决这个问题。具体来说,通过生成 512 倍数以上的粒子并预测它们从初始位置的位移来提高模拟的分辨率。该方法的结果可以被视为是模拟实现的本身,而不是对其密度场的投影。由于生成过程是随机的,使得我们能够对大尺度环境下的小尺度模式进行采样。值得一提的是,该模型仅从16 对低分辨率 - 高分辨率的模拟中学习,就能够生成 2022-11-28 #机器学习 #人工智能 #天文
Chain of Thought Ai需要鼓励吗? 参考:Chain of Thought论文、代码和资源【论文精读】 原始版本《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》——思维链概念的开山之作 这篇文章是现任谷歌大脑研究员的Jason Wei在22年1月放到arxiv上面的文章,在上文所说的大背景下提出了思维链这个概念。 2022-11-26 #深度学习 #人工智能 #自然语言处理
机器学习预测世界杯胜负 来自Predicting FIFA 2022 World Cup with ML。 预测出来的结果是巴西夺冠。 今年阿根廷夺冠!!!! 当然事在人为,最终谁夺的冠军还是让我们来期待一下。 根据历年数据计算的准确率只有不到70的准确率,AUC为0.75。 预测准确率25/48≈52% 2022-11-22 #机器学习 #人工智能
State of AI 报告之AI发展预测 该预测出自State of AI Report 2022,由AI投资者Nathan Benaich 和 Ian Hogarth 撰写。今年是第五年。每次报告都会进行预测,去年预测了8个,结果只对了一半。 2022-10-12 #人工智能