BloggerではRobots.txtが編集できないので

以前、@BloggerではGoogleウェブマスターツールに登録するサイトマップを、投稿記事から自動生成されるフィードを利用する事ができると書きました。

記事投稿の度に、別途サイトマップ生成ソフトを使用したりXMLを手編集する必要もなく大変便利なのですが、記事を削除したときなどはBloggerが吐き出すRobots.txtを編集することができないためGoogle検索エンジンに存在しないURLを知らせることが出来ません。

検索エンジンは、無効なURLがあったりするとSEO的に不利になります。
なぜかと言えば、検索結果に存在しないURLが表示されてしまうと、ユーザがクリックしたあとにエラー画面表示となり、ユーザビリティが低下するため表示順位が下げられてしまうそうです。



ウェブマスターツールで削除した記事がどうなるのか見てみましょう。

1週間ほど経過しても、クロールエラーとして表示されたままです。
勝手に消えることはないのでしょうか、ほっといてもタメになりませんので自身のBloggerURL以降をコピーします。
ex).2010/02/Test.Html

次に、メニューから「クローラのアクセス」を選択し、下図の黄色丸の部分にある「URLの削除」をクリックします。


「新しい削除リクエスト」ボタンをクリック


今回は単体のファイルなので、そのまま「次へ」ボタンをクリック


先にコピーしておいたURLをペースト

今回、検索結果から削除する対象のコンテンツのリストへ追加されます。
※ 複数ある場合は続けて登録

削除リストが完成したら、「削除リクエストを送信」ボタンをクリックして完了です。






コメント(0)

コメントを投稿

関連記事
SEO対策