我还年轻,我仍豪放,我的刀尖而利,我的萧并不凄凉!

RNNS ARE NOT TRANSFORMERS (YET)

论文:RNNS ARE NOT TRANSFORMERS (YET) -THE KEY BOTTLENECK ON IN-CONTEXT RETRIEVAL

本文研究了递归神经网络(rnn)和transformer在解决算法问题方面的表示能力差距。理论分析表明,CoT改善了rnn,但不足以缩小与transformer的差距。

我们证明,采用技术来增强 RNN 的上下文检索能力,包括检索增强生成(RAG)和添加单个 Transformer 层,可以使 RNN 能够通过 CoT 解决所有多项式时间可解决的问题,从而缩小了与transformer的代表性差距。


阅读更多...

Pure Noise to the Rescue of Insufficient Data

ICML 2022 / MLRC 2022 OutstandingPaper


Q: 这篇论文试图解决什么问题?

A: 这篇论文试图解决的问题是深度神经网络在处理不平衡数据集时的性能问题。在现实世界的数据集中,某些类别的样本可能比其他类别稀少,这导致模型在训练过程中容易偏向于多数类,从而在少数类上表现不佳,这种现象称为类别不平衡(class imbalance)。为了解决这个问题,论文提出了一种名为Oversampling with Pure Noise Images (OPeN)的新方法,旨在通过在训练过程中引入纯噪声图像来改善模型对少数类(minority class)的泛化能力。此外,论文还提出了一种新的批量归一化层(Distribution Aware Routing Batch Normalization, DAR-BN),用于分别归一化噪声图像和自然图像,以进一步提高模型性能。

阅读更多...
  • Copyrights © 2019-2024 LJX
  • Visitors: | Views:

请我喝杯咖啡吧~

支付宝
微信