推广 热搜: page  音视频  使用  个数  搜索引擎  选择  父亲  企业  百度  可以 

url 参数传递的两种方式_如何正确添加关键词URL,一文了解!

   日期:2024-12-02     来源:本站    作者:hg7em    caijiyuan   评论:0    移动:http://ww.kub2b.com/mobile/news/2165.html
核心提示:url 参数传递的两种方式_如何正确添加关键词URL,一文了解!参数传递Attention 机制是一种用于序列到序列模型的技术,它使得模型
url 参数传递的两种方式_如何正确添加关键词URL,一文了解! 参数传递 Attention 机制是一种用于序列到序列模型的技术,它使得模型可以关注输入序列中与当前输出相关的部分。Bahdanau 和 Luong 是两种常用的 Attention 机制,它们的区别主要在于计算注意力分配时所使用的方法。 Bahdanau Attention Bahdanau Attention 是一种基于内容的注意力机制,它将注意力分配看作是一种给定上下文向量和一组查询向量的权求和。在 Bahdanau Attention 中,上下文向量是由编码器输出的所有隐藏状态的权和,而查询向量则是由解码器当前隐藏状态计算得出的。 具体来说,Bahdanau Attention 的计算过程如下:

url 参数传递的两种方式_如何正确添加关键词URL,一文了解!

1. 对于解码器当前隐藏状态 $s_t$,计算一组查询向量 $q_t$。 2. 对于编码器的所有隐藏状态 $h_i$,计算其对应的注意力得分 $e_{ti}$。 3. 将注意力得分 $e_{ti}$ 通过 softmax 函数转化为注意力权重 $a_{ti}$。 4. 将编码器所有隐藏状态 $h_i$ 与注意力权重 $a_{ti}$ 做权求和,得到当前时间步的上下文向量 $c_t$。 Luong Attention Luong Attention 是一种基于位置的注意力机制,它将注意力分配看作是一种根据解码器当前隐藏状态和编码器所有隐藏状态之间的相似度计算得出的权重分布。在 Luong Attention 中,有三种不同的计算方式:点乘注意力、拼接注意力和缩放点积注意力。 具体来说,Luong Attention 的计算过程如下: 1. 对于解码器当前隐藏状态 $s_t$,计算一组查询向量 $q_t$。 2. 对于编码器的所有隐藏状态 $h_i$,计算其对应的特征向量 $z_i$。 3. 根据解码器当前隐藏状态 $s_t$ 和编码器的所有特征向量 $z_i$,计算相似度得分 $e_{ti}$。 4. 根据相似度得分 $e_{ti}$,使用 softmax 函数计算注意力权重 $a_{ti}$。 5. 将编码器所有隐藏状态 $h_i$ 与注意力权重 $a_{ti}$ 做权求和,得到当前时间步的上下文向量 $c_t$。
本文地址:http://ww.kub2b.com/news/2165.html     企库往 http://ww.kub2b.com/ ,  查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。

 
 
更多>同类最新文章
0相关评论

文章列表
相关文章
最新动态
推荐图文
最新文章
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号