分类目录归档:论文

Attention Is All You Need-论文


“Attention Is All You Need”是2017年由谷歌的Ashish Vaswani、Noam Shazeer、Niki Parmar等八位科学家撰写的一篇具有重大影响力的研究论文 。以下是对该论文的详细介绍:

核心贡献

  • 提出Transformer架构:摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN)中复杂的递归和卷积操作,完全基于注意力机制构建了Transformer架构,为自然语言处理领域带来了新的突破。
  • 引入自注意力机制:自注意力机制能够让模型学习到输入序列中每个位置与其他位置之间的依赖关系,而不依赖于位置的先后顺序,大大提高了模型对长序列的处理能力和...

Read more

TradExpert: Revolutionizing Trading with Mixture of Expert LLMs


“TradExpert: Revolutionizing Trading with Mixture of Expert LLMs”提出了TradExpert框架,该框架利用专家混合(MoE)方法,整合多个专注于不同金融数据的大语言模型(LLM),以提升股票交易策略。 1. 研究背景 - 人工智能与金融分析的融合催生了创新时代,大语言模型(LLMs)在金融领域的应用逐渐增加,但有效整合不同数据源及结构化与非结构化数据仍是挑战。 - 此前传统金融模型难以处理非结构化数据,虽有通用LLMs及专门的金融语言模型出现,但仍需更好地综合不同数据来源的见解。 2. 研究目的 -...

Read more

FinVision:一种基于多智能体系统股票市场预测框架


这篇论文《FinVision: A Multi-Agent Framework for Stock Market Prediction》由Sorouralsadat Fatemi和Yuheng Hu撰写,主要介绍了一种用于股票市场预测的多模态多智能体框架FinVision,该框架在处理多模态金融数据方面具有优势,通过整合多种信息源来提高交易决策的准确性。 1. 研究背景 - 金融市场复杂多变,交易任务面临多模态数据流等挑战,传统深度学习和强化学习模型在处理金融数据时存在诸多问题,如需要大量训练数据、数据类型简化过度、决策过程缺乏可解释性等。 - 大语言模型(LLMs)的发...

Read more