#感知融合第2弹:单网络处理任意模态数据的时代正在临近,强数据控制,蓄水池计算,全局工作区理论与自注意力机制

强人工智能(类人智能)可能比较遥远,但强数据控制智能已经临近 —— David 9

在上次感知融合中我们谈到,“肤浅感知”跳过了“理解” 这一步,不过,“肤浅感知”相当有效,以至于传统神经网络(CNN, RNN, BERT)可以直截了当地堆加融合数据(同态或多模态)。但是,很快人们就将发现问题:

1. “肤浅感知”模型太关注模型本身的优化,如特殊loss或特殊的优化器,而模型和当前数据集及任务是强相关的,这缺乏对数据的灵活控制和鲁棒性。

2. 正如阿德南曾在是人类水平的智能,还是动物般的智能中表达的,神经网络近年来在构造精巧的函数上是成功的,但进一步可以相信更精巧的函数还会出现,因为目前“动物智能”模型的精巧程度依旧比不上 动物。

更重要的是,也许我们低估了低等智能背后的普适性,越低等智能(感知),对于“外设”和输入数据越是鲁棒。如,盲人的听觉可以比常人好得多,跛脚的动物可以很快适应新的走路方式,我们用一只眼也可以很快地适应生活甚至做得更好,

低等感知需要做的是让输入信息更高效地流入自身的感知系统,并适应周围环境,这时的关键词是“快”,而不是“好”“为什么”,只有人类才会在感知后还会有其他反思。

这就是为什么值得相信,目前的人工感知模型(cnn, transformers)在灵活性层面 继续阅读#感知融合第2弹:单网络处理任意模态数据的时代正在临近,强数据控制,蓄水池计算,全局工作区理论与自注意力机制

感知融合?感知迁移?感知涌现?感知的未来?

“One can be the master of what one does, but never of what one feels.” ― Gustave Flaubert

一个人可以熟练掌控他干的事,但TA永远不能掌控自己的感受 —— 古斯塔夫·福樓拜

语言学中有一个著名的“可理解的输入”假说,当人学习除母语以外第二语言时,只有当习得者充分理解语言环境的意义(而不是形式模式),并且有足够的输入(环境)的量时,自然就可以学习。这就解释了为什么有些成人即使在国外很多年还是不能很好地掌握第二语言,而小孩则往往相反他们掌握的更快。用david的话说就是,两者的内在模型天差地别,孩子更愿意关注“意义”并且模型更灵活没有固化下来,

这么看来,目前的大规模语言系统(Bert,GPT等)是相当肤浅的,它们跳过了“理解”这一步。

这里还要强调的是,可理解的“输入”事实上是多模态的,学习语言不仅仅是声音输入,还有周围语境,对话者表情,自身在这个时刻的感受,等等等等……

人类把所有这些复杂的感知融合,过滤,以自己的方式进行理解后,输出了语言。很难否认感知(感受)对人类智能有重要的作用,但是感知(感受)在人类智能中的运作方式,和计算机或者新物种是应该一样的吗?这个问题先保留给大家自己思考。

目前可以看到的是,对于机器的学习,“肤浅感知”是比较有效的, 继续阅读感知融合?感知迁移?感知涌现?感知的未来?

可以认真一点思考人工智能伦理吗?——【通用人工伦理】【人工道德行为体】

很难否定伦理是由情感主导的,同样也难以否定主导伦理的情感必须是“交互”的,并不是独立于社会之外的情感。— David 9

前不久,谷歌AI伦理研究员工Timnit Gebru被辞退的风波发酵,但在David看来这和普通的不平等事件相似,没有必要加上“AI”的名头,况且目前的AI没有能力和动机去歧视人类(或一部分人类),只有一部分人类去歧视另一部分人类的可能。

并且,谷歌的一些人事项目的弥补,只是隔靴搔痒,和大多数其他AI伦理项目一样,只是审查工具人员调动(梵蒂冈AI伦理计划和联合国的AI伦理委员会)。但,真正把主动权交给AI的——所谓“通用人工伦理”的研究却相当少,而这,我认为并不是不可能(至少某种程度上)。在走向通用AI伦理的道路上,david认为这些问题更值得思考:

情感——重要因素

善与恶的知识不是别的,而是我们所意识到的快乐与痛苦的情感 —— 斯宾诺莎

如果大多数人在情感上无法接受,很难说伦理上是正确的。

许多学者认为伦理(善和恶的区分)是人意识到的情感。认知神经科学家也认为,道德判断两个重要组成就是:有意识的认知推理过程(理性)和情绪启动的直觉(情感)过程。而前者似乎只是判断事情真相,后者才左右普遍的看法。如恐怖谷理论认为,当机器人与人类的相似程度达到一个特定程度的时候,人们会(对任何瑕疵)突然变得极其负面和反感,

恐怖谷理论

而反对者认为,这种情绪在人与人的接触中也会 继续阅读可以认真一点思考人工智能伦理吗?——【通用人工伦理】【人工道德行为体】