テクニカルSEOとは?誰もが知っておくべき8つの技術的側面

bloggest

テクニカルSEOとは?誰もが知っておくべき8つの技術的側面

この記事では、テクニカルSEOの基本について説明する。さて、テクニカルSEOの基本を語ることは矛盾しているように思えるかもしれない。しかし、SEOのより技術的な側面に関する基本的な知識は、上位表示されるサイトと全く上位表示されないサイトの違いを意味する。テクニカルSEOは簡単ではありませんが、ウェブサイトの技術的基盤に取り組む際に、どのような点に注意を払うべきか(開発者に依頼すべきか)、平易な言葉で説明します。

テクニカルSEOとは?

テクニカルSEOとは、ウェブサイトの技術的な側面を改善し、検索エンジンでのページ順位を上げることです。ウェブサイトをより速く、クロールしやすく、検索エンジンにとってより分かりやすくすることが、テクニカル最適化の柱です。テクニカルSEOはオンページSEOの一部であり、より高いランキングを得るためにウェブサイトの要素を改善することに重点を置いています。オフページSEOの対極にあるもので、他のチャネルを通じてウェブサイトの露出を増やすことを目的としています。

なぜ技術的にサイトを最適化する必要があるのか?

Googleをはじめとする検索エンジンは、ユーザーのクエリに対して可能な限り最良の結果を提示したいと考えています。そのため、Googleのロボットは多くの要素に基づいてウェブページをクロールし、評価します。ページの読み込み速度のように、ユーザーの体験に基づく要素もあります。その他の要素は、検索エンジンのロボットがあなたのページの内容を把握するのに役立ちます。特に構造化データがそうです。つまり、技術的な側面を改善することで、検索エンジンがあなたのサイトをクロールし、理解できるようにするのです。これがうまくいけば、上位表示で報われるかもしれません。あるいは、豊かな結果を得ることもできる!

逆に、技術的なミスを犯すと、検索エンジンに損害を与えることになります。robots.txtファイルに誤って末尾のスラッシュを追加してしまい、検索エンジンのクロールを完全にブロックしてしまうようなことは、まずないでしょう。

しかし、検索エンジンを喜ばせるために、ウェブサイトの技術的な細部にこだわる必要はありません。ウェブサイトは、ユーザーにとって使いやすく、速く、わかりやすいものでなければなりません。幸いなことに、強力な技術的基盤を構築することは、多くの場合、ユーザーや検索エンジンのエクスペリエンスを向上させることにつながります。

技術的に最適化されたウェブサイトの特徴とは?

技術的に健全なウェブサイトは、ユーザーにとって速く、検索エンジンのロボットにとってクロールしやすいものです。適切な技術的設定は、検索エンジンがサイトの内容を理解するのに役立ちます。また、例えば重複コンテンツによる混乱を防ぐことができます。さらに、機能していないリンクによって訪問者や検索エンジンが行き止まりになることもありません。ここでは、技術的に最適化されたウェブサイトの重要な特徴について簡単に説明します。

速い

今日、ウェブページは速く読み込まれる必要があります。人々はせっかちで、ページが開くのを待ちたがらない。2016年の調査では、モバイルサイト訪問者の53%が、ウェブページが3秒以内に開かなければ離脱するという結果が出ている。2022年の調査によると、ページの読み込みに1秒かかるごとに、eコマースのコンバージョン率はおよそ0.3%低下するという。つまり、ウェブサイトが遅いと、人々はイライラして他のウェブサイトに移ってしまい、せっかくのトラフィックを逃してしまうことになるのです。

Googleは、遅いウェブページが最適なエクスペリエンスを提供しないことを知っています。そのため、より速く読み込まれるウェブページを好みます。そのため、遅いウェブページは、より速い同等のウェブページよりも検索結果の下方に表示され、トラフィックがさらに少なくなります。2021年以降、ページエクスペリエンス(人々がウェブページを体感する速さ)が正式にグーグルのランキング要素になりました。そのため、十分な速さで読み込まれるページを持つことは、これまで以上に重要になっています。

あなたのウェブサイトは十分速いですか?サイトスピードを簡単にテストする方法をお読みください。たいていのテストでは、改善すべき点を教えてくれます。また、コアウェブバイタルを見ることもできます。そして、一般的なサイトスピード最適化のヒントをこちらでご案内します。

検索エンジンがクロールできる

検索エンジンはロボットを使ってウェブサイトをクロールします。ロボットはリンクをたどってサイトのコンテンツを発見します。優れた内部リンク構造によって、ロボットはサイト内の最も重要なコンテンツを確実に理解します。

しかし、ロボットを誘導する方法は他にもあります。例えば、ロボットに特定のコンテンツをクロールさせたくない場合は、クロールをブロックすることができます。また、あるページをクロールさせるが、そのページを検索結果に表示しないようにしたり、そのページのリンクをたどらないようにしたりすることもできる。

Robots.txtファイル

robots.txtファイルを使用することで、ロボットにサイト内の指示を与えることができます。これは強力なツールであり、慎重に扱う必要がある。最初に述べたように、ちょっとしたミスでロボットがあなたのサイト(の重要な部分)をクロールできなくなる可能性があります。時々、robots.txtファイルでサイトのCSSやJSファイルを意図せずブロックしてしまう人がいます。これらのファイルには、あなたのサイトがどのように見え、どのように動作するかをブラウザに伝えるコードが含まれています。検索エンジンは、これらのファイルがブロックされていると、あなたのサイトが適切に動作しているかどうかを判断することができません。

全体として、robots.txtがどのように機能するのかを学びたいのであれば、robots.txtに飛び込んでみることをお勧めします。あるいは、デベロッパーに任せるのもよいでしょう!

meta robotsタグ

robots metaタグは、閲覧者がページ上で目にすることのないコードの一部です。ページのいわゆるheadセクションのソースコードにあります。ロボットはページを見つけるときにこのセクションを読みます。このセクションで、彼らはページで何を見つけるか、あるいはページで何をする必要があるかを発見します。

検索エンジンのロボットにページをクロールさせたいが、何らかの理由で検索結果には表示させたくない場合は、robots metaタグでそれを伝えることができます。robots metaタグを使えば、検索エンジンのロボットにページをクロールするよう指示することもできるが、ページ上のリンクをたどらないようにすることもできる。Yoast SEOを使えば、投稿やページをnoindexやnofollowにするのは簡単だ。どのページに対してそうしたいのかを学ぶ。

デッドリンクが(あまり)ない

遅いウェブサイトがイライラさせることは、これまで述べてきました。遅いページ以上に訪問者をイライラさせるのは、存在しないページにランディングすることかもしれません。リンクがあなたのサイトに存在しないページにつながっている場合、人々は404エラーページに遭遇することになります。せっかくのユーザーエクスペリエンスが台無しです!

さらに、検索エンジンもこのようなエラーページを見つけたがりません。また、検索エンジンは、たとえリンクが隠されていたとしても、ぶつかったリンクをすべてたどってしまうため、訪問者が遭遇するよりもさらに多くのデッドリンクを見つける傾向があります。

残念ながら、ほとんどのサイトには(少なくともいくつかの)デッドリンクが存在する。幸い、いくつかのツールは、あなたのサイトのデッドリンクを取得するのに役立ちます。それらのツールと404エラーの解決方法についてお読みください。

不必要なデッドリンクを防ぐために、ページを削除したり移動したりするときは、必ずそのページのURLをリダイレクトする必要があります。理想的なのは、古いページを置き換えるページにリダイレクトすることです。Yoast SEO Premiumを使えば、自分で簡単にリダイレクトを行うことができます。開発者は必要ありません!

重複コンテンツで検索エンジンを混乱させない

検索エンジンは、あなたのサイトの複数のページ、あるいは他のサイトに同じコンテンツがあると混乱するかもしれません。なぜなら、これらのページが同じコンテンツを表示している場合、どのページを上位表示させればいいのだろうか?その結果、検索エンジンは同じコンテンツを持つすべてのページの順位を下げてしまうかもしれません。

残念ながら、知らず知らずのうちに重複コンテンツの問題を抱えているかもしれない。技術的な理由から、異なるURLでも同じコンテンツを表示することができるのです。訪問者にとっては何の違いもありませんが、検索エンジンにとっては同じコンテンツが異なるURLで表示されていることになります。

幸い、この問題には技術的な解決策があります。いわゆるcanonical link要素を使えば、元のページ、つまり検索エンジンで上位表示させたいページが何であるかを示すことができる。Yoast SEOでは、ページにカノニカルURLを簡単に設定することができる。また、Yoast SEOでは、簡単に設定できるように、すべてのページに自己参照のカノニカルリンクを追加します。これは、あなたが気づいていない重複コンテンツの問題を防ぐのに役立ちます。

安全

技術的に最適化されたウェブサイトは、安全なウェブサイトです。ユーザーにとって安全なウェブサイトを作り、プライバシーを保証することは、今や基本的な要件です。あなたの(WordPressの)ウェブサイトを安全にするためにできることはたくさんありますが、最も重要なことの1つはHTTPSを導入することです。

HTTPSは、ブラウザとサイト間で送信されるデータを誰も傍受できないようにします。そのため、例えば、あなたのサイトにログインする場合、その認証情報は安全です。サイトにHTTPSを導入するには、SSL証明書が必要です。Googleはセキュリティの重要性を認識しており、HTTPSをランキング・シグナルとしています。

ウェブサイトがHTTPSかどうかは、ほとんどのブラウザで簡単に確認できます。ブラウザの検索バーの左側に、安全であればロックが表示されます。安全ではありません」と表示されている場合は、あなた(またはあなたの開発者)がやるべきことがあります!

プラス:構造化データを持っている

構造化データは、検索エンジンがあなたのウェブサイト、コンテンツ、またはビジネスをよりよく理解するのに役立ちます。構造化データを使えば、検索エンジンに、どのような製品を販売しているのか、どのようなレシピをサイトに掲載しているのかを伝えることができます。さらに、それらの製品やレシピの詳細を提供することができるようになります。

検索エンジンが簡単に見つけて理解できるように、この情報を提供すべき決まったフォーマット(Schema.orgに記述)があります。これは、検索エンジンがあなたのコンテンツを全体像の中に位置づけるのに役立つ。ここでは、Schema.orgがどのように機能するのか、そしてYoast SEOがどのようにそれを手助けするのかについてのストーリーを読むことができる。例えば、Yoast SEOはあなたのサイトにSchemaグラフを作成し、ハウツーやFAQコンテンツに構造化データコンテンツブロックを用意します。

構造化データを実装することで、検索エンジンに対する理解が深まるだけではありません。また、リッチリザルト(検索結果で目立つ星や詳細のある輝く結果)の対象となるコンテンツになります。

プラス:XMLサイトマップがある

簡単に言うと、XMLサイトマップはあなたのサイトの全ページのリストです。検索エンジンにとって、あなたのサイトのロードマップの役割を果たします。これがあれば、検索エンジンがサイト上の重要なコンテンツを見逃すことはありません。XMLサイトマップは多くの場合、投稿、ページ、タグ、その他のカスタム投稿タイプに分類され、各ページの画像数や最終更新日も含まれます。

理想的には、ウェブサイトにXMLサイトマップは必要ありません。すべてのコンテンツをうまくつなぐ内部リンク構造があれば、ロボットはXMLサイトマップを必要としません。しかし、すべてのサイトが優れた構造を持っているわけではなく、XMLサイトマップがあっても害はありません。そのため、XMLサイトマップを常に持つことをお勧めする。

プラス:国際的なウェブサイトはhreflangを使う

あなたのサイトが複数の国をターゲットにしていたり、同じ言語が話されている複数の国をターゲットにしていたりする場合、検索エンジンはあなたがどの国や言語に到達しようとしているのかを理解するのに少し手助けが必要です。検索エンジンの手助けがあれば、検索結果でその地域に適したウェブサイトを表示することができます。

Hreflangタグはまさにその手助けをしてくれます。Hreflangタグを使えば、各ページがどの国や言語を対象としているかを定義することができます。米国と英国のサイトが同じコンテンツを表示していても、Googleはそれらが異なる地域向けに書かれたものだと認識します。

国際的なウェブサイトの最適化はかなり専門的です。国際的なサイトを上位表示させる方法を学びたい方は、多言語SEOトレーニングをご覧ください。

About Me

ブログの効果を最大化しようというブログ。まずは情報を集めて載せていきます。試して修正して発展させていきます。こんな時代なので基本は海外から集めて海外で試そうと思います。日本の収益が上がって還元できるようになれば、いや〜、最高です。

コメントする