robots.txt.liquidファイルついて

pc

 

shopify でrobots.txtファイルを編集できるようになったことを日本時間 2021年6月19日に、Shopify CEOの Tobi Lutke がTwitterで発表しました。

 

 

すべてのshopifyストアでは、、検索エンジンの最適化 (SEO) に役立つrobots.txtファイルが用意されています。
事前に設定済みのテンプレートとして「robots.txt.liquid」があり、編集可能になったのは大きなニュースとなりました。

 

「robots.txt.liquid」は、追加をしないと表示されていません。

 

当サイトのトップページの前半では、
私が運用しているshopifyサイトURLを公開しています。
ぜひ、当ページと共にご覧ください!

 

 

robots.txt.liquidファイルを作成する手順

\ログイン/

 

※デフォルトが設定されていますが、編集する場合は、バックアップを忘れずにしておきましょう!

 

※shopifyサポートでは、robots.txt.liquidファイルの編集についてはサポート対象外です。

 

かんたんな流れ

  1. shopify管理ページの左側のサイドバーで、[オンラインストア]> [テーマ]に移動
  2. [アクション]> [コードの編集]を選択
  3. [テンプレート]の下にある[新しいテンプレートを追加]リンクをクリック
  4. 左端のドロップダウンをクリックして、「robots.txt」を選択
  5. 「テンプレートの作成」を選択

 

写真で手順の流れを紹介

オンラインストアの
「テーマ」→【アクション】>「コードを編集する」画面に移動。
※写真:かんたんな流れ手順1〜2は省略。

 

手順の流れ 手順3:「新しいテンプレートを追加」をクリック

 

手順の流れ

 

手順の流れ 手順4:【目的】のところのドロップダウン→「robots.txt」をクリック

 

手順の流れ

 

手順の流れ 手順5:「テンプレートの作成」をクリック

 

手順の流れ

 

手順の流れ robots.txt.liquidファイルが表示された

 

手順の流れ

 

shopifyのデフォルトrobots.txtは何をブロックするのか?

seo

 

shopify robots.txtとは

robots.txtは、ストア・サイトでクロールできるURLを検索エンジン(クローラーなど)に指示するファイルのこと。

 

このファイルで検索エンジンがクロールすべきではない低品質のページをブロックすることを通知できます。
shopifyでは、
robots.txt.liquidというファイルを使って生成されます。

 

デフォルトの構成を見るには

ドメイン/robots.txt

ドメインをそれぞれ自身のドメイン名に替えます。

 

例:
https://abc.comのサイト所有(ドメイン名:abc.com)の場合、

 

abc.com/robots.txt
これを入力、検索すると中身が表示

 

robots.txtファイルの中身を見ることができます。
事前に構成されたルールが存在しています。
一般的にはこれで十分な内容となっています。

robots.txtの中身

 

Disallow:は、「クロールを禁止する」意味をします。
デフォルトのルールの多くは、検索エンジンが不要なページをクロールしないように指示しています。
デフォルトの最も重要な指示の一部をご紹介!

 

Disallow: /search 内部サイト検索をブロック
Disallow: /cart ショッピングカートページをブロック
Disallow: /checkout チェックアウトページをブロック
Disallow: /account アカウントページをブロック
Disallow: /collections/*+* サイトのファセットナビゲーション(絞り込み検索など)(※)によって生成された重複カテゴリページをブロック
Sitemap: [Sitemap Links] sitemap.xmlリンクを参照

 

shopify robots.txtでは、
低品質のwebページのクロールをブロックするのに優れているデフォルト構成になっています。

 

※ファセットナビゲーションとは
絞り込み検索のように、webサイト内のコンテンツを絞り込めるナビゲーションの仕組みでさまざまな検索条件をユーザーが選択できるメニュー。
サイトページの左側によく表示されるナビゲーションを指します。

 

ECサイトでは、
色やサイズなど一つの商品に対して選択することで重複するコンテンツ内容のページURLを大量に生成される可能性がでてきます。

 

サイトにファセットナビゲーションがある場合は、Shopify robots.txtファイルの調整を検討することをおすすめします。

 

色やサイズなど、ファセットナビゲーションURLは多数のクロールの可能性があり、
低品質・類似ページのクロールを減らす必要があります。
robots.txtファイルのルールに追加してクロールをブロックすることが可能になります。

 

robots.txt.liquidファイルの編集方法

shopifyヘルプセンター参照

 

robots.txt.liquidファイルにコードのブロックを追加することでカスタマイズできます。

{%- if group.user_agent.value == ‘*’ -%}

 

{{ ‘Disallow: [URLPath]‘ }}

 

{%- endif -%}

 

例えば、shopifyサイトが /bbb/を
robots.txtでブロックしたい場合は、次のコマンドを追加できます。

 

{%- if group.user_agent.value == ‘*’ -%}

 

{{ ‘Disallow:/ bbb /.*'}}

 

{%- endif -%}


各自、バックアップなど責任もって対応してください。

 

変更はすぐにできますが、
クローラーが迅速に訪問して反応するとは限らず、時間がかかることもあります。
Googleのrobots.txtテスターを使って、変更したことをテスト(確認)することができます。

【Googleのrobots.txtテスター】

Googleのrobots.txtテスター

 

Googleのrobots.txtテスター URLを選択すると、自動的に切り替わります。

 

robots.txt.liquidのカスタマイズ内容を削除する

デフォルトのrobots.txtファイルに戻す場合、
テンプレートのカスタマイズ内容のコピーを保存してから
robots.txt.liquid を削除してください。
※テンプレートを削除すると元に戻せません。

 

 

robots.txt.liquidファイルのまとめ

seo

 

robots.txtファイルを使用するとクローラーにストアのページの要求を伝えることができます。
Liquidを使用してrobots.txt.liquidテンプレートでクローラーに通知することが推奨されています。
ファイルを自動的に更新し続けるshopifyの機能が維持されるためです。

 

実際、shopifyストアの所有者のほとんどは、robot.txtファイルを調整する必要がない可能性があります。
一般的にデフォルト構成で十分なほど、優れていてクロール制御は大きな問題がありません。
カスタマイズする必要がないのが現状です。

 

しかし、ストアが大きくなり、カスタマイズを行うほど
robots.txtファイルを調整する可能性が高くなります。
いままでrobots.txtの制御の欠如がカスタマイズをせばめていましたが、
編集が可能になったことでカスタマイズが広がりました。

 

デフォルト構成では不十分の場合、カスタマイズを調整することを検討してください。
ただ、shopifyサポートは、サポート対象外なので注意してください。

 

 

【あわせて読みたい】
【shopify】noindex設定方法のまとめ|Liquidコード編集