SEO 领域的所有讨论都围绕着最近宣布的 Google BERT 更新。与其他Google 算法更新一样,SEO 人员对于 Google 所称的过去五年来算法最大变化的影响感到困惑。
谷歌官方公告称,BERT(Bidirectional Encoder Representations from Transformers)算法是一种基于神经网络的自然语言理解技术。听起来很混乱,对吧?但这个概念其实很简单。
什么是 BERT NLP 模型?
BERT 是 Google 开发的开源预训练自 股东数据库 然语言处理 ( NLP ) 模型,能够根据整个搜索短语的关系解释搜索查询的意图和上下文。BERT 模型尝试根据所有其他周围单词来理解单词的上下文,从而使对话查询的搜索结果更加准确。
以下是 BERT 模型的一个示例:
最重要的是,BERT 加入了 Google 的机器学习算法精英俱乐部,该算法在遇到新信息时会进行学习。
BERT的语言理解能力将为用户提供更好的结果,满足他们的真实意图。
由于用户的意图更多地基于通常以复杂或对话查询形式输入的个人兴趣,因此谷歌等搜索引擎很难解释所需的意图。
据谷歌称,人们使用复杂查询字符串的原因是担心搜索引擎可能无法理解原本对话式的查询。然而,随着谷歌 BERT 更新,这家搜索引擎巨头将试图弥补这一特定差距。
Google BERT 将使用双向语言处理,而不 激励他们完成购买来重新吸引即将离开的访问者 是传统的从左到右和从右到左的语言处理模型。与从左到右和从右到左的浅层双向语言处理不同,BERT 使用更复杂的掩码语言模型来尝试理解每个单词与其他单词之间的关系。
谷歌现在已将 BERT 集成到其自然语言处理中,以提供每个单词的最佳上下文表示,而不仅仅是左上下文或右上下文。
观看Danny Luo的 Meetup 视频,了解 Google BERT 的技术方面
BERT 算法:对语音搜索的影响
语音搜索无疑是 SEO 世界和 BWB名录 互联网的下一个大事件。过去几年,谷歌一直在推广以语音助手为中心的功能,而 BERT 可以说是最新的一个。
公告称,BERT 算法更新是其机器学习部门语言研究团队多年努力的成果。谷歌表示,BERT 标志着搜索领域的一个里程碑,因为它是该公司整个历史上取得的最大飞跃。
随着基于语音的搜索和个人辅助设备(如 Google Home)的出现并成为每个家庭的一部分,对更好的上下文搜索结果的需求日益增加。
BERT算法的由来
BERT 算法的起源可以追溯到 2017 年,当时 Google AI 团队开始着手Transformers 项目。谷歌开发的 Transformer 语言理解模型基于新颖的神经网络架构概念。
新颖的神经网络架构的概念试图根据句子中的其他单词来处理单词,而不是逐个地处理。
Transformers 的编码概念已被用来制定BERT 模型,该模型试图理解一个单词与其前后单词之间的关系。
这有助于 Google 更好地理解搜索查询的意图并提供满足用户意图的搜索结果。
该搜索引擎巨头还证实,新的搜索算法更新不仅限于软件的变化,还涉及整个基础设施的变化。
为了进一步突破搜索的极限,谷歌推出了云TPU,以快速提供更多上下文信息。
传统硬件可能会限制 BERT 的性能,因为其中涉及需要先进技术的新流程。
云 TPU,又名张量处理单元,是 Google 定制的应用程序,可以帮助提高机器学习算法的性能。
Google BERT 算法对整体搜索结果的影响
从上周开始,谷歌开始使用 BERT 算法来显示搜索结果。已经证实,新算法已经影响了谷歌搜索中输入的每 10 个搜索查询中的 1 个。
预计较长且对话式的搜索查询将发生巨大变化。SEO 长期以来一直在优化页面时避免介词和冠词的重要性,因为它们从来都不是关键字策略的一部分。
然而,随着新的 BERT 更新,SEO 现在必须对此进行深思熟虑,因为介词的改变可能会改变整个搜索结果。
随着 BERT 算法的实施,谷歌搜索了解到,介词的变化对于满足用户的搜索意图非常重要。根据官方公告,BERT 更新的最终版本是在经过全面测试后推出的。
该公告还推动了 BERT 将如何影响精选摘要。据了解,99% 的语音搜索结果都是出现在精选摘要中的结果。谷歌表示,BERT 算法经过训练,可以理解最合适的精选摘要结果。这意味着现有的精选摘要可能会发生很多变化。
BERT 算法实际示例
以下是 BERT 算法更新前后使用关键字“2019 年巴西旅行者前往美国需要签证”的搜索结果比较: