Bear
  • 首页
  • 目录
  • 标签
  • latex识别
  • 每日arxiv
  • 关于
顽石从未成金,仍愿场上留足印。

周耀辉解析《春秋》

(以下内容被证实是伪作)
2024-02-06
#音乐

Mamba---Linear-Time Sequence Modeling with Selective State Spaces

论文两位作者Albert Gu和Tri Dao,博士都毕业于斯坦福大学,导师为Christopher Ré。 Albert Gu现在是CMU助理教授,多年来一直推动SSM架构发展。他曾在DeepMind 工作,目前是Cartesia AI的联合创始人及首席科学家。 Tri Dao,以FlashAttention、FlashDecoding系列工作闻名,现在是普林斯顿助理教授,和Together A
2024-01-31
#深度学习 #人工智能 #自然语言处理

On Embeddings for Numerical Features in Tabular Deep Learning

该论文使用表格深度学习的一些新embedding。论文地址 出自NIPS 2022 Hardy Xu利用该方法获得了kaggle Playground Series - Season 3, Episode 26: Multi-Class Prediction of Cirrhosis Outcomes的第二名。 本文提出了两种不同的构建块,适用于构建数字特征的嵌入。第一种是分段线性编码,它为原始
2024-01-16
#机器学习 #深度学习 #人工智能 #表格学习

Self-Supervision is All You Need for Solving Rubik’s Cube

该论文使用NN来解魔方,耳目一新的方法。论文地址 TMLR 2023. 简单来说,该方法利用了组合搜索的一个基本特性:等概率的情况下路径越短,随机发生的可能性就越大。这意味着随机训练争夺的累积概率随着移动次数的减少而增加:$1/\mathbb{M}^N$,其中$\mathbb{M}$表示移动集,N表示路径长度。
2024-01-13
#深度学习 #人工智能

LLaMA2

2023-07-18
#深度学习 #人工智能 #自然语言处理

世另我(三)

关了关了.
2023-07-11
#生活

机器学习科研的十年——陈天奇

陈天奇是机器学习领域著名的青年华人学者之一,本科毕业于上海交通大学ACM班,博士毕业于华盛顿大学计算机系,研究方向为大规模机器学习。TVM、MXNET、XGBoost 作者,CMU 助理教授,OctoML CTO。在gpt的潮流下,领导的团队提出了MLC LLM ,为在各类硬件上原生部署任意大型语言模型提供了解决方案,可将大模型应用于移动端(例如 iPhone)、消费级电脑端(例如 Mac)和 W
2023-07-11
#机器学习 #深度学习 #人工智能

华为预测天气大模型

来自华为发表于nature的《Accurate medium-range global weather forecasting with 3D neural networks》。 现阶段,AI 气象预报模型精度不足主要有两个原因: 第一,现有的 AI 气象预报模型都是基于 2D 神经网络,无法很好地处理不均匀的 3D 气象数据。 第二,AI 方法缺少数学物理机理约束,因此在迭代过程中会不断积累
2023-07-08
#深度学习 #人工智能

一些博士生对超大型语言模型时代NLP研究的看法

来自《A PhD Student’s Perspective on Research in NLP in the Era of Very Large Language Models》 通过汇集来自不同背景的博士生的意见,探索NLP领域丰富的研究方向,避免将研究仅仅局限于大型语言模型。提出了十四个研究领域,每个领域包含了2-4个具体的研究方向,涉及多语言性、推理、知识库、语言基础、计算社会学等主题。
2023-07-03
#深度学习 #人工智能 #自然语言处理

天文学神经网络的历史、入门和展望

来自发表于Royal Society上的《Astronomia ex machina: a history, primer and outlook on neural networks in astronomy? 个人评价: 大致算是讲述了人工智能的历史,没有很好的讲述人工智能在天文学的特殊性,生硬的讲述人工智能+天文学,简单的1+1-2,没有看到想要看到的1+1>2。 让我印象最深的是文中
2023-07-01
#深度学习 #人工智能 #天文
1…7891011…22

搜索

LJX Hexo
博客已经运行 天