首页 > 业界 > 关键词  > Transformer最新资讯  > 正文

视觉Transformer中ReLU替代softmax,DeepMind新招让成本速降

2023-09-20 08:46 · 稿源: ​机器之心公众号

Transformer 架构已经在现代机器学习领域得到了广泛的应用。注意力是 transformer 的一大核心组件,其中包含了一个 softmax,作用是产生 token 的一个概率分布。softmax 有较高的成本,因为其会执行指数计算和对序列长度求和,这会使得并行化难以执行。Google DeepMind 想到了一个

......

本文由站长之家合作伙伴自媒体作者“​机器之心公众号”授权发布于站长之家平台,本平台仅提供信息索引服务。由于内容发布时间超过平台更新维护时间,为了保证文章信息的及时性,内容观点的准确性,平台将不提供完全的内容展现,本页面内容仅为平台搜索索引使用。需阅读完整内容的用户,请查看原文,获取内容详情。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词: