SEO 公開日: 2023.02.08 更新日: 2024.03.25

GoogleのBERTとは?導入によってSEOがどう変化したのかをわかりやすく解説

アイキャッチ_bert

BERTとは、Googleが2018年に発表・公開した、最先端の自然言語処理モデルです。従来の言語処理モデルと比較して、自然言語(人間が扱う単語・文章)を読むことに優れ、ユーザーの需要を満たす検索結果を表示します。

本記事では、BERTの導入によってSEOがどのように変化したのかを解説します。

BERTとは?

BERT(Bidirectional Encoder Representations from Transformers)とは、人間の言葉を処理するための事前学習モデルです。「Transformerによる双方向のエンコード表現」として発表され、Googleでは検索システムにBERTを導入してユーザーへの理解を深めています。

実際にBERTは、自然言語処理(NLP)の性能を評価する「GLUE」という指標で、翻訳・文書分類・質問応答などの項目において最高スコアを収めました。

また「Transformer」とは、2017年に発表された深層学習モデルで、人間のように理解するためのアーキテクチャ(構造)のことです。これによって文章構造の処理が可能となりました。

自然言語処理(NLP)とは?

そもそも自然言語処理(NLP)とは「Natural Language Processing」の略で、人間の言語(自然言語)を機械で処理するという意味です。通常、機械では「人工言語(プログラミング言語)」が扱われます。人工言語はコンピュータが読み取るための言語のため、「1+2=3」のように「曖昧さ」のない形式で記述します。

一方で人間の扱う自然言語は、「曖昧さ」があることが特徴です。例としてよく扱われるのが、以下のような一文です。

「白いチャックのついた洋服」
・チャックが白い、洋服
・チャックがついている、白い洋服

このように人間の扱う言葉には曖昧さがあり、機械が処理するのは難しいとされていました。

そのため、曖昧さのある自然言語まで理解するために自然言語処理が開発されました。関連性が高い単語同士を結びつける仕組みによって、話し言葉と書き言葉の意味が解析できるようになりました。現在では、SNSでのコミュニケーションなどの不規則な情報に対する処理の精度も高まってきています。

BERTをGoogleが検索エンジンに採用した背景

BERTは、2018年にGoogleのJacob Devlin氏らによって発表された自然言語処理モデルです。現在では、ユーザーの検索意図などを理解するために活用されています。では、なぜGoogleはBERTを導入したのでしょうか。

その背景には、検索クエリの多様化があったといわれています。Googleによると、毎日数十億回検索されるなかで、約15%のクエリはこれまで見たことがないものだったそうです。

例として、検索クエリのつづりが間違っているケースが挙げられますが、従来の処理方法では検索意図を把握することはできませんでした。そこで、検索クエリのつづりや組み合わせに関係なくユーザーの検索意図を把握する方法として、BERTが開発されました。

BERTは、コンテンツの文脈を読む性能が非常に優れています。多様化していく検索クエリにも対応できるため、導入によって検索結果の大幅な改善が期待されていました。

その期待通り、「過去5年で飛躍的に検索クエリに対しての理解が深まった」「米国の英語検索の約10%が改善された」というデータがGoogleから公表されています。

BERTの導入によってSEOがどのように変化したのか?

Googleはユーザーの検索意図を正確に解析するためにBERTを導入し、「過去5年で飛躍的に検索クエリに対しての理解が深まった」という成果を得ました。ここからはより具体的に、BERTの導入でどのようにSEOが変化したのかを従来の自然言語処理との違いに触れつつ解説していきます。

言語・文脈理解の精度の向上

BERTが他の自然言語処理よりも優れている点は、文頭と文末の双方向から処理できることです。過去の言語処理モデルは基本的に単一方向での処理を採用しており、文脈の理解が苦手でした。一方でBERTは、「Masked Language Model」という仕組みを導入しており、文脈を読み取ることが可能になりました。

Googleは、BERTの「検索クエリの背景にある意図を解析する能力」を示すための評価プロセスとして、以下のような例を発表しています。

これは「2019 brazil traveler to usa need a visa(2019年ブラジル旅行者はアメリカへのビザが必要)」というクエリにおけるBERT導入前後の変化を示しています。この文章を人間が読めば、「ブラジルからの旅行者がアメリカに行く際にビザが必要かどうか」を知りたいのだと理解可能です。

しかしBERT導入前のモデルでは、「to」や「for」などの接続詞・前置詞が意味を左右するような文脈の処理ができませんでした。そのため、「ブラジルへのアメリカ人旅行者」と解析され、ユーザーが求める情報とは異なる結果が表示されていました。

一方でBERT導入後は、「to」による接続の重要性を認識できるようになり、アメリカ大使館のブラジル人旅行者向けビザページが上位表示されるようになっています。

このようにBERTは、言語・文脈理解の精度において他の言語処理モデルとは一線を画す性能を誇ります。

汎用性の高さ

BERTは、汎用性の高さも魅力です。以前のタスク処理モデルは、特定の処理のみに対応していました。しかしBERTは、モデルをその都度修正することなく、さまざまな処理に応用可能です。なぜなら、既存の処理モデルの前に「転移学習」できるからです。

転移学習とは、特定の領域における知識を他の領域の学習に活用する技術を指します。タスク処理における仮説立てにおいて、すでに他のタスクで学習された知識を活かすことができるため、大量のデータでも効率的に処理可能です。

たとえば、多量の犬のデータと少量の猫のデータを学習・処理するとします。転移学習のない機械学習では、それぞれ独立した判別モデルを作成するため、情報量の少ない猫に対する処理精度は低くなります。一方で転移学習では、多量の犬のデータを猫の判別にも活用できるため、限られたデータからでも高精度の判別モデルを作成可能です。

BERTは、人間が過去の経験を活かして行動するように、転移学習を活かして新しいクエリにもスムーズに対応しています。

BERTを踏まえたSEOで重要なこと

BERTの導入によって、Google検索の精度は大幅に高まりました。では、BERT導入後のSEOにおいて、サイト運営者はどのような対策を施す必要があるのでしょうか。

結論、BERTのための特別な対策は必要なく、従来のSEOと同様に、ユーザビリティを考慮した高品質なコンテンツを作ることが大切になります。

とはいえ、BERTによって検索の精度が高まったため、今まで以上の質が求められるのも事実です。そのためここからは、今後のSEOでとくに意識すべき2つのポイントを解説します。

検索意図にあった情報か

検索上位に入るためには、ユーザーの検索意図を理解することが大切です。ユーザーは、情報を得るために検索をしています。そしてGoogleは、そのクエリに合うコンテンツを表示するためにBERTを導入しました。つまり、検索意図とのズレが大きいコンテンツは、これまで以上に上位表示が難しくなるでしょう。

たとえば「SEO とは」と検索したユーザーは、SEOという言葉の意味や具体的な実践方法を求めている初心者である可能性が高いです。そのため、専門用語を多く用いてSEOというシステムについての技術的な話を記載してもユーザーの需要は満たせません。

検索意図を汲み取れないコンテンツは、ユーザーの離脱率が高まり、Googleからの評価が低下してしまいます。SEOに取り組む際は、大前提としてユーザーの検索意図を理解できているかどうか確認しましょう。

ページ内の情報が理解しやすい内容か

検索上位を維持するためには、理解しやすいページであるかどうかも重要です。

1つ目に挙げた「検索意図の理解」は、検索上位に入ってユーザーに訪れてもらうためのポイントです。しかしサイトのデザインが見にくかったり、文章が分かりにくかったりすると、訪れたユーザーはすぐに離脱してしまいます。ユーザーの需要を満たしていないコンテンツと判断されて、Googleからの評価が低下してしまうでしょう。

そのため、SEOで成果を出すためには、「ユーザーファースト」の考え方が重要なため、見やすいデザインや読みやすい文章を心掛けるようにしましょう。また、上述のようにユーザーに適したレベルの文章であることも大切です。初心者の場合は専門用語を噛み砕いた優しい説明が良いですが、上級者向けなら専門用語を使った方が良いケースもあります。

以上を踏まえ、インターネット記事を読み慣れている方と読み慣れていない方の両方が、ストレスなく閲覧できるコンテンツを作成しましょう。

BERT活用事例

ここからは、BERTによってサービスの幅を広げた「チャットボット」と「FAQデータ作成」の事例を紹介します。Google以外の活用事例を知ることで、BERTの魅力や可能性をより深く理解できるでしょう。

チャットボット

株式会社ユーザーローカルは、BERTの高度な自然言語処理性能を活用したチャットボットの提供をスタートしました。

通常の自動応答システムは、ユーザーからの質問をあらかじめ予測して、回答を用意しておく必要があります。そのため、稼働後はユーザーへの個別回答の手間を削減できる一方で、システムを稼働させるまでに多くの手間と時間が必要です。

しかしBERTを採用したことで、日々寄せられるお問い合わせの履歴データを利用した短期間でのシステム開発が実現。チャットボットを導入する企業は、ユーザーの質問を予測したプログラムを書かずに最先端AI技術を活用できるようになりました。

FAQデータ作成

株式会社サイシードは、2019年に国内で初めてBERTを搭載した製品「sAI FAQ Builder」を発表しました。

sAI FAQ Builderは、企業内の多大なデータからAIが認識できる形式でのFAQデータを作るサービスです。sAI FAQ Builderによって、サイシードの「sAI Chat」と「sAI Search」の実装に必要だった想定質問文を約80%削減、学習期間を約95%削減。安価かつ短期間での実装が可能になりました。

まとめ

BERTとは、2018年にGoogleが発表した自然言語処理(NLP)です。人間の扱う言葉が持つ曖昧さを正確に認識できないという弱点を克服するために開発され、より高い精度で検索クエリを読み取ることが可能となりました。

BERTの導入によって、検索意図に適したコンテンツが検索上位に入るようになりました。そのためサイト運営者は、これまで以上にユーザビリティに配慮したSEOやコンテンツ制作を進めていくことが求められています。

SEOやコンテンツ制作に関するお悩みは株式会社ヒトノテにお問い合わせください。

ヒトノテロゴ

執筆者:ヒトノート編集部

株式会社ヒトノテのオウンドメディア、WEBマーケティングの学習帳「ヒトノート -Hito note-」の編集部。

ヒトノテ坪昌史

監修者:坪昌史

株式会社ヒトノテの代表取締役CEO。 エンジニアとしてキャリアスタートし、サイバーエージェントのSEO分析研究機関を経て、リクルートの横断マーケティング組織のマネージャー&全社SEO技術責任者を務める。その後、独立しSEOを中心としたクライアントの課題解決を行う。2017年、株式会社ヒトノテを創業し、様々な企業のウェブマーケティングの支援を行う。

元リクルートのSEO責任者へ無料相談

    送信することで、プライバシーポリシーに同意したものといたします。