Bear
  • 首页
  • 目录
  • 标签
  • latex识别
  • 每日arxiv
  • 关于
顽石从未成金,仍愿场上留足印。

共产主义ABC

2021-08-28
#哲学

变量替换巧获积分关系

题源:自动内卷人(来自Q群-卷明白) 证明: $\int_{0}^{1} \frac{\ln (1+x)}{x} d x=\frac{\pi^{2}}{12}$, 并由此计算 $\int_{0}^{+\infty} \arctan x \cdot \ln \left(1+\frac{1}{x^{2}}\right) d x$.
2021-08-25
#数学

辛普森公式

辛普森公式(Simpson‘s rule)公式是牛顿-科特斯公式当n=2时的情形。 $\int_{a}^{b} f(x) d x \approx \frac{b-a}{6}\left[f(a)+4 f\left(\frac{a+b}{2}\right)+f(b)\right]$
2021-08-13
#数学

机器学习之建议与应用

机器学习的建议 面对模型的下一步操作: 我们可以 获得更多的训练样本——通常是有效的,但代价较大,下面的方法也可能有效,可考虑先采用下面的几种方法。 尝试减少特征的数量 尝试获得更多的特征 尝试增加多项式特征 尝试减少正则化程度$\lambda$ 尝试增加正则化程度$\lambda$
2021-08-05
#笔记 #机器学习

一天学会深度学习

此为李宏毅(Hung-yi Lee)的Understanding Deep Learning in One Day 课程的笔记。 分为四个部分: 1.深度学习简介(Introduction of Deep Learning) 2.训练深度神经网络的技巧( Tips for Training Deep Neural Network) 3.神经网络的变体(Variants of Neural Netw
2021-07-27
#笔记 #机器学习 #深度学习

如何只使用一个隐层,来实现包含n元输入的任意布尔函数?

此为吴恩达《深度学习》课程中其中一个(不起眼的)知识的拓展。 吴恩达举例说明深度神经网络时,给出了只使用一层隐藏层表示异或逻辑需要$O(2^n)$的隐藏单元。
2021-07-24
#数学 #深度学习

费用为k的生成树

问题:输入无向图G和一个整数k。G中有n个顶点。每条边的费用非1 即2。请在图G中寻找一棵费用为k 的生成树。 (此题为数据结构与算法HW5的bouns题第一题)
2021-07-18
#算法

机器学习之推荐系统

推荐系统是最重要的机器学习的应用之一。
2021-07-16
#笔记 #机器学习

级数的若干反例

(一)$\sum _{n=1}^{\infty}a_n$收敛,但是$\sum _{n=1}^{\infty}{a_n}^3$发散 例子: $$ \sum _{n=1}^{\infty}a_n=1-1+\frac{1}{\sqrt[3]{2}}-\frac{1}{2\sqrt[3]{2}}-\frac{1}{2\sqrt[3]{2}}\ +…+\frac{1}{\sqrt[3]{k}}-\frac{
2021-07-10
#数学

巧用对称化三重积分为三次

$f(x)$ 在 $0\leq x\leq1$上连续。 证明: $\int _0^1\ dx\int _x^1\ dy\int _x^y\ f\left(x\right)f\left(y\right)f\left(z\right)dz=\frac{1}{3!}\left(\int _0^1\ f\left(t\right)dt\right)^3$
2021-07-08
#数学
1…1516171819…22

搜索

LJX Hexo
博客已经运行 天