CSSとJavaScriptファイルにGooglebotがアクセスできないサイトに対して、先週Googleが一斉に警告メールを送信した。この出来事に関して新しい情報が入ってきたり誤解があったりするので、フォローアップする。
- Googleが送ってきたCSSとJSのブロック警告に正しく対応するために必要なこと -
Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM by Kenichi Suzuki
CSSとJavaScriptファイルにGooglebotがアクセスできないサイトに対して、先週Googleが一斉に警告メールを送信した。この出来事に関して新しい情報が入ってきたり誤解があったりするので、フォローアップする。
- Googleが送ってきたCSSとJSのブロック警告に正しく対応するために必要なこと -
Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM by Kenichi Suzuki
CSSとJavaScriptのファイルへのアクセスをrobots.txtでブロックしているサイトに対して、Search Console経由で警告メッセージをGoogleは一斉に送信し始めた。今までにはなかった新しいタイプの警告メッセージだ。届いたとしたら、対象サイトのCSSやJavaScript、またはその両方のファイルへのGooglebotのアクセスを許可するようにrobots.txtを編集する。
- CSSとJSファイルをブロックしているサイトに警告メッセージをGoogleが一斉送信 -
Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM by Kenichi Suzuki
スマートフォン版のGooglebotをrobots.txtでブロックしている場合、そのページの説明文を表示できない理由をモバイル検索結果のスニペットでGoogleは伝えるようにした。検索結果に適切に掲載されるためには、スマートフォン版のGooglebotのクロールをブロックしてはいけない。
- Google、モバイル検索結果のスニペットでrobots.txtによるブロックの理由を表示 -
Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM by Kenichi Suzuki
robots.txtテスターに、更新したrobots.txtをGoogleに通知する機能が付いた。robots.txtテスターの送信機能を利用すると、「更新されたコードのダウンロード」「アップロードされたバージョンの確認」「アップロードされたバージョンの確認」の3つの操作を実行できる。
- 更新したrobots.txtをGoogleに送信する機能がウェブマスターツールのrobots.txtテスターに追加 -
Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM by Kenichi Suzuki
CSSやJavaScriptをGooglebotがクロールすることをブロックしてはいけない。現在では特に、モバイル向けサイトをGoogleが正しく認識する妨げになることがある。
- CSSやJavaScriptのクロールをブロックするとモバイルSEOにマイナス -
Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM by Kenichi Suzuki
Googlebotがrobots.txtをチェックする頻度は基本的に1日1回で、記述されている内容には影響を受けない。サイト全体のクロールを完全にブロックしていたとしても、「1日に1回」は保たれる。
- Googlebotによるrobots.txtのチェック頻度は1日1回、クロールを完全に拒否していても変わらない -
Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM
サイト全体を、誤ってrobots.txtでブロックしてしまったウェブマスターにGoogleのマット・カッツが対処方法をWebmasterWorldでアドバイスした。マット・カッツがWebmasterWorldに姿を見せるのは極めて珍しいこと。
- 20万以上のURLを誤ってrobots.txtでブロック、対処策をマット・カッツがアドバイス -
Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM
robots.txtの動きと注意点についてGoogleのジョン・ミューラー氏が英語版のウェブマスター向けヘルプフォーラムでコメントした。SEOに取り組むサイト管理者なら知っておきたい情報なので共有する。
- SEOに大切な理解しておくべきrobots.txtの動き -
Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM
ファイル転送に使用するFTPプロトコルのサイトもGooglebotの場合はrobots.txtでクロールをブロック可能。利用方法はHTTPによる通常のウェブサイトと何も変わらない。対象となるFTPサイトのルートディレクトリにrobots.txtをアップし、クロールを拒否/許可するディレクトリやファイルを disallow/allow で指定する。
- FTPサイトでも、Googlebotのクロールをrobots.txtでブロックできる -
Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM
- robots.txtでAllowを使うのはどんな時? -
Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM
Ad Plugin made by Free Wordpress Themes