如何不入俗套并像专家一样训练模型? —— David9的打趣帖子

来自deci.ai的专家提了一些不入俗套的训练模型的建议,david觉得不错,分享给大家,如果你每天还在机械化地调整模型超参数,不妨看看下面几个建议:

1)  使用指数滑动平均EMA(Exponential Moving Average). 

当模型容易陷入局部最优解时,这种方法比较有效。

EMA 是一种提高模型收敛稳定性,并通过防止收敛到局部最优来达到更好的整体解的方法。— Shai Rozenberg

公式大致如下: 2)  权重平均

每个人都喜欢免费额外的性能提高。

加权平均可以达到这一点。当然,训练N个模型再平均他们的权重开销比较大。另一种更节省成本的方式是,把比较好的那些epoch的模型拿出来做平均,这样只要训练一次,又能达到意想不到的效果。

3)  batch积累

如果有一些模型训练开销很大,而且需要的GPU显存又很多,你不得不降低batch size达到训练的目的。然而,和原来训练代码配套的超参数似乎就要重新调整了? 继续阅读如何不入俗套并像专家一样训练模型? —— David9的打趣帖子

【”具身智能”的诱惑】用什么注入AI灵魂?大数据(数据量)真的是资产或壁垒吗?Embodied AI(具身人工智能)

“什么是幸福?权力在增加,阻力被克服的感觉……” —— 弗里德里希·威廉·尼采

每个哲学家对“意志力”的看法都不同。但在机器学习领域,似乎看法一致的是, 没有自由意志的智能很难接近或超越人类智能。或者说 ,不围绕“意志力”这一虚无的主题,人类很难构造出类似自己的AI。

另一方面值得注意的是,正像尼采说的“幸福是权力在增加,阻力被克服”,他也在揭露一部分“意志力”的秘密,如果AI获得的“意志力”产生的行为导致一部分人类失去了幸福感,那么这是无法接受的,这是道德上的冲突。

在技术上,无论是尼采口中的权利,还是像亚瑟•叔本华曾表达的:“在智力的表层之下是盲目的意志力,它让人去爱,去索要,而不管是否合理,因此导致了人的痛苦。”这种“盲目的”意志是难以量化的。

但 ,赋予机器灵魂这件事的诱惑太强了,借鉴叔本华所谓的自然力,人们提出“具身智能”,即让实体AI在环境中去真实感受,进而学习。当然,可想见的优越性很多:如可以通过声音视觉触觉,多模态地学习,可以像婴儿一样慢慢学习,可以和环境交互,可以 继续阅读【”具身智能”的诱惑】用什么注入AI灵魂?大数据(数据量)真的是资产或壁垒吗?Embodied AI(具身人工智能)

【因果论第一弹】类人智能副产品#1:因果解释,因果推理,因果神经网络ENN,Causality,causal inference

一旦因果清晰明了,作为人类,下一步就是发现和创造因果—— David 9

人类其实是“欲望管理大师”,
不像动物被欲望直接地驱使,
我们依靠“想象”构造出无限欲望,
我们又依靠“欺骗”打破无限欲望,重塑欲望。(无论是欺骗他人还是欺骗自己)。
而“因果关系”——让欺骗成为可能。
 
当你在奇怪人类为什么痴迷于“欺骗”与“被欺骗”,不如先反观一下“因果关系”在人类社会中的作用。首先,我们的大脑是“强预测”的,jeff hawkin曾在他的书中曾提到一个有意思的例子,如果我们打算伸手去触摸咖啡杯,其实,我们的大脑早已在预测触摸杯子的感觉和之后的情况了:
并且,每一根手指早已有自己的感觉判断,只是你不自觉而已。
这种强预测的“本性”促使我们对因果关系特别痴迷,因为对因果关系的预测,是我们预测高层认知世界的载体。而利用“欺骗”这个技能,人类可以对因果关系进行自由操控和表达。(无论你是错误还是正确,你都有了操纵和表达因果解释的自由)。比如哪怕你不喜欢男(女)朋友做的午饭,你还是会说:”我之前早上吃的太多了,所以现在容易饱”。
当然david今天不是想说“欺骗”的魅力,而是想说“因果关系”,这个看似是类人智能副产品的东西,在构建下一阶段AI的重要性。
 

“因果关系”帮助智能体注意到游戏规则,而不是数据本身

目前的AI太过关注数据本身,事实上数据不能代表一切,无论静态数据还是动态数据,都有这样那样的漏洞。
概率学中一个著名的悖论“蒙提·霍尔悖论”就是一个例子:20世纪80年代末一个竞猜游戏类电视节目中,有三扇门供你选择,其中一扇门后面是一辆车(奖品),另外两扇门后面是山羊。你挑了一扇门,比如说1号门,主持人知道门后面是什么,这时主持人会打开了另一扇“山羊”门,比如说3号门,你看到这扇门的后面是一只山羊。此时,如果他问你:‘你想重新选择,改选2号门吗?’
那么,选择换门是否对你赢走奖品更有利?概率又是多少:

当时许多概率学者会回答: 继续阅读【因果论第一弹】类人智能副产品#1:因果解释,因果推理,因果神经网络ENN,Causality,causal inference