11行python写一个神经网络,手把手快速入门神经网络

大家可能读过iamtrask超棒的文章(A Neural Network in 11 lines of Python):

11行python写一个神经网络:

X = np.array([ [0,0,1],[0,1,1],[1,0,1],[1,1,1] ])
y = np.array([[0,1,1,0]]).T
syn0 = 2*np.random.random((3,4)) - 1
syn1 = 2*np.random.random((4,1)) - 1
for j in xrange(60000):
    l1 = 1/(1+np.exp(-(np.dot(X,syn0))))
    l2 = 1/(1+np.exp(-(np.dot(l1,syn1))))
    l2_delta = (y - l2)*(l2*(1-l2))
    l1_delta = l2_delta.dot(syn1.T) * (l1 * (1-l1))
    syn1 += l1.T.dot(l2_delta)
    syn0 += X.T.dot(l1_delta)

参考文献:

https://iamtrask.github.io/2015/07/12/basic-python-network/

可解释,自解释,以及交互式AI的未来

宇宙没有义务让人理解,但AI有义务被人,并帮助人理解!  ——  David 9

一个AI模型,无论被工程师如何设计,它最终还是要和使用者交互,哪怕只是一个小小简单的判断分类问题。一旦它把判断结果信息传递给人类,人与机器之间的边界就变的难以划分。AI判断结果一定有错误信息(或AI够不着的问题),人类应该怎么处置?

是指出错误,留给AI去处理?还是人类自己搞一套应对机制?

当然,后一种更容易操作,把AI够不着的问题都留给人类解决,如医疗领域的SPIRIT-AI和CONSORT-AI协议,就旨在提供一套完善的医疗实验交互方针:

来自:https://www.nature.com/articles/s41591-020-1034-x

因为医疗临床实验需要更高规范和更低出错率。不仅仅是医疗,事实上,目前的多数领域的AI落地,交互,都需要大量的 继续阅读可解释,自解释,以及交互式AI的未来

为什么说Transformer模型甚至神经网络的“颠覆”会更早到来?以及神经网络的“表达力”并非真正的“壁垒”?

正确的废话总是令人讨厌,如果,正确的废话再具体一点?或选个好角度再具体一点呢?—— David 9

科学界有这样一些论文题目,看起来有点意思,请允许David列出一些:

一些研究人员大胆地指出:A其实就是B!这就像告诉我们,“天上的云其实就是水分子,光其实也是一种波,妈妈唠叨其实是为了关心你”。看起来似乎都是正确的废话。但是有两点值得注意:

1. 这至少可以帮你换个角度解释世界。

2. A其实就是B,是说A被B包含,即A⊆B,说明,B的解释范围比A大(得多), 继续阅读为什么说Transformer模型甚至神经网络的“颠覆”会更早到来?以及神经网络的“表达力”并非真正的“壁垒”?