【質問#211】インターネットで欲しい情報に辿たどり着かない

質問・悩み相談の回答です。

質問

数年前からだと思うのですが、インターネットで欲しい情報に辿り着かないことが増えた様に感じます。正確には、欲しい情報にたどり着くまでにかかる時間が増加している、です。
withpopさんは題名の件についてどう感じられていますか?また、インターネットで欲しい情報を得る際に気をつけていることはありますか?

中身の無い、広告収入目的のサイトがノイズに感じています。Google等で検索した結果、それらのサイトが上位に出るのもどうにかならないのか、と感じます。
経験上避けるべきサイトの条件(目次が先頭にあるとか)があるので、サイトを開き、それに該当する場合は期待せずに中身を見る、という行為をしています。
スマホの普及率と無駄サイト数は連動してそうな気もします。

回答

これは非常に由々しき問題であると思います。私も同様の思いですし、同じように感じている方も沢山みかけます。

中身の無い、広告収入目的のサイトがノイズに感じています。

まったくそのとおりで、これは客観的な事実であると言い切って良いと思います。これが、

欲しい情報にたどり着くまでにかかる時間が増加している

という結果をもたらしている主要な要因であると強く感じます。

こういった傾向は広告収入の増加を目的に過度なSEO(Search Engine Optimization)を施していることが原因です。SEOとは元来は検索エンジンが必要になる情報を提供しやすいようなWebサイトの構造を設計しましょうという程度の意味だったはずが、現在では「検索エンジンで上位に自サイトを表示させるための方策」という意味で使用されることが非常に多いです。

GoogleやYahooなどの検索エンジンを提供する事業者が目指しているのは、少数のキーワードでユーザーが必要な情報を提供するサービスの構築であるはずです。有用な検索サービスを提供できなくてはユーザーが競合サービスに流出してしまうからです。であるがために、各社の検索エンジンは「過度なSEO」を駆使しているサイトを排除しようとしています。

Googleを例にしますと、昔から

  • 一定以上の文章量が含まれていないページはランクを下げるようにした
  • 他のサイトから多数のリンクが貼られているページのランクを上げるようにした
  • よく使われる検索キーワードが文章の中に多数含まれているページのランクを上げるようにした

などなどのアルゴリズムの変更を加えてきました。ただ、これらのアルゴリズムが推定されてしまったら逆に「過度なSEO」に利用されてしまいます。こうしたイタチごっこの繰り返しになっています。

また、こういった歴史があるために、よくあるような内容の薄っぺらいページには文章用をかさ増しするため、前置きやまとめが無駄に長く、必要な情報が埋もれていたり、検索キーワードを何度も登場させるために冗長な説明が何度も繰り返し登場したりします。

こうした「過度なSEO」が増えることは、ユーザーが大量の広告を閲覧することに繋がります。あまりにも大量の広告を見るとユーザーは広告そのものに嫌悪感を感じるようになります。場合によってはアドブロッキング関連機能の導入を検討するでしょう。広告で表示されたブランドに否定的なイメージを感じるかもしれません。すると今度は広告主も、広告主を顧客とする検索エンジンを提供する事業者も困ります。得をするのは「過度なSEO」を行って広告収入を得ている事業者のみです。この状況は明らかによろしくありません。

というわけで、

インターネットで欲しい情報を得る際に気をつけていることはありますか?

こういった情報を共有することには非常に意義がありますね。

私が心がけていることをそれぞれ列挙していきたいと思います。

「過度なSEO」を施しているページのにおいを嗅ぎ分ける

「過度なSEO」そのものは(悪い)ノウハウとして広まっています。それを事前に知っておくことで、そのノウハウが大量に投入されているページからは「価値がなさそうなページだな」と早期に離脱することで時間を節約できます。

そのノウハウというのは、例えば下記のようなものです。

  • TOC (Table of Contents、目次と章番号) が付いている
  • 赤文字、マーカー線を引いたような装飾が多数ある(strong, em, markタグの多用)
  • 過度な広告。サイドバーなどにスクロールしても付いてくる(sticky)広告がある。ページ中程や文章中にも広告が表示される。
  • 目立つところに自社の情報商材やサービスへと誘導するリンクがある
  • アフィリエイトリンクが大量にある(Amazon、楽天などの特定のECサイトへの商品リンクが大量に掲載)
  • 特徴的なタイトル中の語句 e.g. 「2021年」「最新」「ベスト10」「買ってよかった!」「まとめ」「初心者必見」「ランキング」「僕が〜だった理由」「〜したら〜だった」
  • 脅したり不安にさせるような文章が存在する e.g. 「〜することは本当は間違いだった!?」「これだけは絶対ダメ!プロが教える見分け方」
  • 文章との関連性が薄い、大きなアイキャッチ画像(例えばキャンプ用品であればモデルが笑顔でキャンプしている写真が何枚も挿入されているようなもの)

以上のいずれかが含まれているからと言ってすぐに有用でないサイトだと断定することはできませんが、複数が組み合わさると疑わしさは上昇していくと考えて良いでしょう。

その他、なにかありましたらぜひ教えてください(Twitterや質問フォームからどうぞ。ある程度数がまとまったら公開します)。TOCについては質問者様も書かれていますね。みんなで協力して過度なSEOを追放しましょう。

検索結果から特定のドメインを除外する拡張機能

私はChromeの「uBlackLsit」という拡張機能を使っています。これは本当に素晴らしいです。導入するとGoogleの検索結果の横に「このサイトをブロックする」というリンクが出てくるので、気に入らないサイトはがしがしブロックしていきましょう。

特にプログラミング界隈では、海外のStackOverFlowという有名なQAサイトの機械翻訳をしてコンテンツをコピーしたようなサイトが乱立していてこれも検索結果を汚染しているのですが、下記のリストを購読することで一気にストレスフリーになりました。プログラマの方には強くおすすめです。

Stack Overflow の機械翻訳サイトの除外用フィルタ

プログラマでなくても、何かしらの分野で低品質なページを量産する事業者というのは意外と数が限られます。少なくとも、手作業で対処できる量ではあると思います。例えばプログラミング界の汚染屋たちは上記リストを見ると、記事執筆時点でリストは30個です。

ということは、しつこく低品質なページを見かけるごとにブロックをかけていけば、意外と簡単に快適な検索ライフが戻ってくるような気がします。実際、プログラミング関係については上記のリストの導入でほぼストレスフリーです。

私が今思いついたのは上記2つですが、その他にもこのページのご覧の方で何かいい方法をご存知の方がいらっしゃいましたらTwitterや質問フォームからお知らせいただければありがたいです。