学霸的另类养成
会员书架
首页 > 都市言情 > 学霸的另类养成 > 第41章 热门论文的特质(1/2)

第41章 热门论文的特质(1/2)

错误举报 章节列表 加入书签

  秦飞并没有照搬照抄这类论文的想法。
  但却不妨藉此分析一下这些被疯狂引用的论文一般都有哪些特质。
  一般来说,论文不受欢迎或者说无人问津的原因倒是很简单。
  多数是因为研究质量不高。
  部分论文非但是研究质量不高,而且还犯下很多低端错误。
  这类论文往往在研究方法、数据分析或结果解释等方面存在问题,缺乏科学的严谨性。
  再不就是整篇论文看似没任何问题,实则充斥着滑坡谬误。
  这样的论文又怎会引起其他学者的兴趣或认可呢?
  当然少部分论文虽然被引用的次数比较少,但并不是因为这类论文很糟糕。
  可能只是因为这类论文涉及到的研究领域狭窄,抑或是课题相对比较超前,以至于相关研究的读者群体有限。
  这种情况下,这些论文受众天然就十分有限。
  在缺乏广泛的学术关注的情况下,被引用的机会较少。
  再者就是因为相应的论文过于冷门/邪门从而使得相应的学术成果鲜少被人注意到。
  有时候,即使是优秀的论文也需要适当的宣传和推广才能被其他学者注意到。
  如果作者没有积极地与学术社区互动、参加学术会议或分享研究成果,那么论文可能无法获得广泛的知名度,更不要说是被引用了。
  无人问津的论文的原因几乎都差不多。
  而那些被引用次数超多的论文之所以能够被引用超多次数原因则不尽相同。
  有的论文被广泛引用而受到关注的原因可能是因为做出了突破性研究。
  这类论文可能提出了全新的理论、方法或发现,对该领域的知识做出了重要贡献。
  这些研究能够引起其他学者的兴趣,因为这样的研究为进一步研究提供了新的方向。
  以至于后来者在从这个新方向上探路的时候,将不可避免的引用相关的学术成果。
  譬如说前世人工智能方面著名的的论文——
  《用于图像识别的深度残差学习》
  (DeepResidualLearningforImageRecognition)
  这篇论文引入了一个残差学习框架,以简化比以前使用的网络更深的网络的训练。
  因为引入了残差学习框架使得“更深”同时相对不那么复杂的神经网络训练成为可能。
  残差网络(ResNet)是深度学习的一个重要架构。
  深度学习是一个广泛的领域,包括许多种机器学习的方法和模型,主要目标是模拟人类的神经网络来进行学习。
  然而,在2016以前的实践中,研究者们往往发现随着网络深度的增加,网络性能并不总是提高,这是由于所谓的梯度消失/梯度爆炸问题。
  残差网络(ResNet)是为解决这个问题而提出的一种网络结构。
  在这种结构中,每个层次的输出都会加上其输入,这样可以直接传递梯度,避免了梯度消失问题。
  这种“跳跃”连接或者叫做“短路”连接,使得ResNet可以成功地训练非常深(例如,上百层)的神经网络。
  因此,残差网络是深度学习中的一种关键创新,它为训练更深的神经网络提供了可能。
错误举报 章节列表 加入书签
热门推荐
龙皇武神 龙皇武神
本页面更新于2023/6/15 17:03:32 返回顶部