有点哭笑不得。
两个很顶尖的团队明明是想搞定一个更牛的摘要算法,为什么却要在长短期记忆神经网络上下功夫呢?
林灰一时之间有点无语,脑海中能想到的形容词只有“南辕北辙”。
林灰印象中“长短期记忆神经网络神经网路”最初提出来是为了处理训练传统循环神经网路时可能遇到的梯度消失和梯度爆炸问题(然而也没把这个问题给解决了)
虽然长短期记忆神经网络在处理长序列文本的时候可能会有一定的优势。
但只是凭借这玩意显然很难搞定生成式摘要算法关系不大啊。
以这个为研究方向,林灰很怀疑这些人究竟能否搞出来什么成果。
还是说这两个团队合作公开的课题名称只是为了欺骗?
那林灰可是要多多留心。
而且谷歌研究院是跟普林斯顿大学数学系合作的。
林灰前世没少看一些学术论坛。
虽然正经知识没学到多少。
但关于普林斯顿大学数学系的一些轶事趣谈还是略知一二的。
普林斯顿大学数学系充斥着性情很古怪却又很执拗的人。
林灰感觉谷歌研究院同普林斯顿大学数学系进行合作的话大概率会被带跑偏。
不会不小心歪打正着吧?
应该不大可能。
不过林灰并不能松懈。
适当的高估对手是有必要的。
一个人成功应该是基于自身更为强大的基础上。
而不是要指望着对手更菜。
不过有一说一,这些追随者朝着错误的方向使力也说明了一个道理。
即生成式摘要算法这个方向确实不适合作为人工智能的爆点。
专业人员都容易混淆的事物。
但像生成式摘要算法这么容易让人云里雾里的项目显然是不适合作为人工智能的爆点的。
莫非一点点给普罗大众解释么?