BERT 的双向性可以让你从两个方向阅读句子并关联所有内容,即获得必要的上下文来理解其含义。
变形金刚:这是一种神经网络,最初用于完善机器翻译。
就 BERT 而言,Transformers 将注意力集中在一些使上下文难以理解的单词上,例如链接或代词。
例如,通过这种方式,他们可以理解代词、直接甚至间接宾语的引用。
例如,“我姐姐的车坏了。 “我应该去接她”
在这种情况下,BERT 理解“她”指的是“我的妹妹”,因为 哥斯达黎加客户电子邮件列表 它专注于代词并寻找两个短语之间的关系。
双向性和 Transformer 这两个元素结合在一起,使 BERT 能够非常精确地理解句子的上下文、理解较长的短语,甚至将两个短语相互关联。
谷歌算法的这次更新使得搜索结果更加精确,尤其是长尾关键词。
此外,它对搜索意图的精确度、模糊搜索的理解和语音搜索的影响也很显着。
结果更精确:BERT 更好地理解用户搜索意图
Pandu Nayak 在“比以往更好地理解搜索”一文中详细介绍了这种搜索意图改进的明显例子 。