RECOMMEND
RECOMMEND
SELECTED ENTRIES
RECENT TRACKBACK
CATEGORIES
ARCHIVES
MOBILE
qrcode
LINKS
PROFILE
OTHERS

05
--
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
--
>>
<<
--

SEO crammer

SEOの対策情報を実践と検証で作り上げるサイト
SEO crammer 上位表示の秘密(ホントは秘密じゃないけど)
3
最近のSEO mozの中で、多分1番Ratingが良かったものです。
このサイトですが、アメリカで有名なSEOサイトの一つ
だと思います。
主にSEO初心者向けの記事が多いですので、英語の読め
る方はブックマークしといた方が良いと思います。
このブログでも、時間のある限り面白そうな記事を翻訳し
て載せるようにします。

今回は、良くあるSEO業者の謳い文句にObjectionです!

以下、翻訳文になります。
-------------------------------------------------

私は、'SEOの秘密を売ります'と言うような、酷くて安っぽい
プロモーションが本当に嫌いです。
多くの人が'SEOの究極の秘密'を考えるとき、多分以下のいず
れかに思いを寄せているでしょう。

・Titleタグのキーワード
・リンクの張り方とコンテンツ
・リンクのアンカーテキスト
・質の高いサイトからのリンク

これらは全て有効なアドバイスであり、上位表示にとって重
要です。
しかし、これらのどれもが上位表示で成功するために施す処
置の最も重要な部分を伝えてはいません。

もし上位表示されるためのたった1つの鍵があるとするなら
ば、それは'あなたのWebサイトをリンクに精通している人達
にアピールしなさい'と言う事です。

単純な事ですか?
残念ながらそうではありません。
真実は、あなたの製品を売ってくれて、あなたのコンテンツ
を求めそしてあなたのサイトを促進してくれる世界中で最も
良いサイトが、検索エンジンでのTOP表示をするのに十分では
ないかもしれないという事です。

何故ならば、検索の世界ではこれらのサイトにリンクの重み
付けをしているからです。
手動でリンクを増やしたり、リンクを買ったりする事を通し
て、被リンクの形成をすることだけでは十分ではなく、また
、キーワードをターゲッティングしたページで構成されてい
る完璧に最適化されたWebサイトからのリンクを取得する事だ
けでも十分ではありません。

これらの戦略は、短期間では効果的である一方で、長期的な
運用においてあなたのサイトの成功を保証するものではあり
ません。

長年に渡り最高位を維持するためには、自然な運用でリンク
を何度も何度も形成していく事が必要なのです。

先に述べた、秘密と謳われた手法は、自分のサイトには関連
性の無い所からの一時的に効果のあるリンクを得ることなの
です。
しかし、こういったリンクにはサイト順位を変動させる力が
あるのも事実です。

それでは、実際にこういった手法で何が起きたのかを、信頼
できるサーチエンジンの歴史を通して見てみましょう。

キーワードの繰り返しと設置方法そして密度を調整すること
は、いくつか悪い結果と、数多くのクローキングとスパムを
実行しているという結果につながりました。

GoogleページランクとApostolos GerasoulisのTeoma(現在の
Ask.com)の登場は、検索エンジンをより賢くし、Webのリンク
パターンをマッピングしました。
そして、多くの被リンクを持っているサイトやページへ高い
評価を与えたのです。

ここ8年間に、検索エンジンは、どのリンクが検索順位にとっ
て評価できるものかを判断するために、文脈、適切、信用お
よび他の測定基準を考慮に入れてリンクの測定方法に磨きを
かけています。

これらのアルゴリズムの発展の全ては、検索エンジン対策を
試みるサイトは、高品質で自然に集めた自サイトと関連のあ
るサイトからのリンクを持たなければならないということを
意味しています。

検索順位は非常に重要であるので、ほとんどの検索キーワー
ドにおいて、そのキーワードを狙っている人達から、多くの
時間とお金を検索エンジン対策のために費やされています。
そしてそれらが、より一層検索ランキングで上位表示するた
めの戦いを困難にしています。

そしてこの事は、サイト作成者を基礎的な問題へ誘っている
のです。

上記の3つにカテゴライズされた訪問者グループは、現存する
あらゆる商業サイトや目的を与えられたサイトに当てはまりま
す。

一方で、多くのサイトは、1番目のグループ(緑)が2番目の
グループ(青)を特定している形をとっており、合理的な仕
事(リンクや関連性)をしていますが、3番目(赤)には当
てはまりません。

この3番目のリンク元はあなたのサイトのランキングに不可
欠です
--それらは長期のSEO成功にとってのすばらしい「秘密」な
のです。

3番目のリンク元の力を利用するために、あなたはこれらのサイ
トの運営者の好みに合う無視できない内容のサイトを作成しな
ければなりません。
この事は、本当に秘密でも何でもありません。


あなたは、Google、Yahoo!、MSN、およびAskらの代表が、あ
らゆるインタビューとあらゆるステージの上でこの同じマン
トラを繰り返すのを聞くでしょう。


As an example:

"...the sort of people who have been doing “new” SEO, or whatever you want to call it, that’s social media optimization, link bait, things that are interesting to people and attract word of mouth and buzz, those sorts of sites naturally attract visitors, attract repeat visitors, attract back links, attract lots of discussion, those sorts of sites are going to benefit as the world goes forward." - Matt Cutts in an interview with Gord Hotchkiss

Why are these Linkerati so powerful? What makes their opinions and influence so important to average website owners? Easy - the power to control the web's link structure.

何故、これらのリンク元はこんなにも影響力があるのでしょ
うか?
何が、一般的なサイト運営者にとっての重要な意見や影響力
を生み出すのでしょう?

簡単なことです。
それらの力は、Webのリンク構造を調整している力なのです。

これらのWebのコンテンツは、会社や博物館、政府などによっ
て作成されたサイトのような圧倒的なシェアを持つ商業サイ
トや組織のものであるかもしれません。

Webのリンク構造は、これらのリンク元によって作られている
のです。

もし、あなたの競争相手、Wikipedia、About.com、特定分野
に強いブロガー、産業ニュースの出版サイトが、3番目のリン
ク元からの被リンクを取得してあなたより有名なサイトになっ
たならば、あなたはどのようにしてこれらのサイトと検索エ
ンジン対策で競争するのかの想像が出来ますか?

これはSEOのすばらしい「秘密」です。
--サイトのコンテンツは、リンク元に焦点を当てなければな
らない。
--彼らがあなたのサイトの新しいコンテンツにリンクしたい
と言う、抑えられない渇きを満たす事。

それらはあなたの顧客とは全く異なった客層であるかもしれ
ませんが、あなたは、エンジンが良いと認識している方法で
サイトを構築し続けるために彼らの敬意と承認を必要としま
す。

-------------------------------------------------
上記の記事は以下のサイトが原文となります。
http://www.seomoz.org/blog/the-secret-to-ranking-at-the-search-engines-thats-really-no-secret-at-all


| SEO | 23:31 | comments(0) | trackbacks(0) | - | - |
SEO crammer GSiteCrawerの設定
0
    Sitemapの読み込みについて、各サイトから一斉にRobots.txtでの対応が
    発表されました。

    http://www.ysearchblog.com/archives/000437.html 4月12日

    今までは、各エンジン毎に登録サイトでSitemapのURLを設定する必要が
    あったのですが、今回のRobots.txtでの対応により、その作業をする必
    要がなくなりました。

    そこで、今回は以前に紹介したGSiteCrawerの使用方法について説明し
    たいと思います。

    このソフトは特に、大量ページを保持するWebマスターの方にはとても
    重宝されるツールだと思います。

    様々なインポート機能により、大量のURLを一括でXMLに書き出してくれ
    ます。
    しかも、クロール頻度や更新日付の設定も一括で行えますので、こんな
    便利なソフトをFreeで配布しているSOFTplus Entwicklungen GmbHという会社はかなり太っ腹です。

    それでは、設定方法を説明したいと思います。

    SOFTplus Entwicklungen GmbHからソフトを入手し、インストール後にGSiteCrawerを起動すると、Projectの設定を行うための画面が表示されます。

    Project nameに管理用の名前を入力し、Main URLに管理サイトのIndex
    のURLを入力します。
    入力し終わったら、Add to listボタンを押下すれば、左メニューの
    Available projectsのリストに反映されます。

    img05_s


    次に、Settingタブをクリックし、各種設定を行いますがここではGeneral
    タブの中にあるLocation and name of the sitemap fileと
    Location and name of the Yahoo! urllist fileを設定すればOKです。
    ここで入力したフォルダにSitemapが生成されます。
    Sitemap生成については後ほど説明します。
    FTPとAutomationの設定をすると、Sitemap生成時に自動でFTPに接続し、
    UPLOADまでしてくれますが、私は自動で上書きが怖いため、あえて設定
    していません。

    img05_s


    次にURL listタブをクリックします。
    ここで、XMLファイルに書き出す内容を設定します。
    ここでは、登録するURLを手入力で行っても構いません。
    その場合は、最下部にあるAddボタンを押下すると、上記のリスト部分に
    空欄のリストが作成されますので、そちらに入力してください。

    img05_s


    一括登録をしたい方はImportと言う機能を使用する事が出来ます。
    この機能、本当に便利です。
    画面上部にあるImport▼の▼の部分をクリックすると、5種類のメニュー
    が表示されます。
    1.URLs from log-file
    2.URLs from google
    3.Existing Google Sitemap-file
    4.ROBOTS.TXT from website
    5.file from local directory
    すでに、対象サイトについてXMLファイルを作成済みの方は3番を選択し、
    ローカルにあるXMLファイルを指定すれば、URLをImportできます。
    Web上からGoogleにIndexされているURLをImportしたい場合は2番を選択
    すれば、Web上から自動でURLを収集してきます。
    しかし、もれなく全てのURLを登録したい場合には5番のfile from local
    directoryの機能がお勧めです。
    この機能はローカルにあるHTMLファイルからリンクタグなどのURLを拾い
    ますので、体系化したフォルダ構成をしていれば全てのURLを網羅して登録
    することが出来ます。

    img05_s


    URLがリストに反映されたら、あとはURL毎に巡回頻度と優先度を設定して
    ください。
    Ctrlキーで複数選択し、一括変更が可能ですのでこちらもかなり作業を
    省けます。

    各種設定が終わりましたら、いよいよSitemapの作成です。
    Generateタブをクリックし、Google Sitemap-Fileをクリックしてください。
    そうすると、Sitemapの保存先を選ぶポップアップが出てきますので、好き
    な場所に保存してください。
    このSitemapはSitemap.org対応のものですので、こちらで全ての検索エンジ
    ンに対応できます。

    img05_s


    書き出されたSitemapの中身を確認したい場合にはStatisticsタブをクリック
    し、Generate statisticsをクリックすると処理内容が表示されます。


    img05_s


    後は、Robots.txtに作成したSitemapのURLを設定し、RootフォルダにUPすれば登録完了となります。

    個人的には、GoogleのWebマスターツールや、YahooのSite explorerを併用した方が、より細かな情報(リンク数やIndex数)を把握できると思います
    のでお勧めです。

    GSiteCrawerは海外の製品ですが、操作方法がいたって簡単なので、ぜひ試
    して頂きたい製品です。
    | SEO | 23:30 | comments(1) | trackbacks(0) | - | - |
    SEO crammer Yahooカテゴリ登録
    0
      実は、このSEO CRAMMERと平行して、もう一つのブログでもカテゴリ登録
      を狙っていました。

      そのもう一つの方が、今回無事にカテゴリ登録されるという結果になり
      ました。

      4月2日に申請して、4月10日に連絡のメールが来てたので8日間ですね。
      ちなみに、サイト運営後1ヶ月半くらいでの登録です。
      現在ページ数が156ですので、まぁまぁのボリュームだと思います。

      実は、このカテゴリ登録されたブログですが、2回目の申請で通りました。
      1回目も既に140ページくらいあったのですが、なぜかサーファーさんが
      来ませんでした。

      では、1回目と2回目でどこが違うんだというと、ページ数はさておき、
      登録時の補足項目へ入力したか否かの部分が違います。

      1回目は補足項目の入力は端折っていたのですが、2回目ではしっかりサイト
      の説明文を入力しました。

      Yahooって人間味があるなと思うのは、アイキャッチの如何で登録に影響
      すると言う事です。

      補足項目の入力もそうですが、カテゴリ申請した後の記事は常に写真付き
      の、アイキャッチで「おっ!」と思わせる記事を心がけていました。

      サーファーさんも膨大な数のサイトを見ているでしょうし、パッと見でしょ
      ぼそうなサイトを見せられたら即却下だと思うんですよね。

      カテゴリ登録を狙っている人がいたら、うちのサイトは登録されるに十分
      なコンテンツの量と質だ!と思っても、上記のことも気にかけると確実性
      が増すのではと思います。

      なので、次回このSEO CRAMMERをカテゴリ登録申請する時は、アイキャッチ
      に気をつけた記事作成をするようにしたいと思います。
      今月末には何とかされるといいのですが。。。
      | SEO | 23:31 | comments(0) | trackbacks(0) | - | - |
      SEO crammer Yahoo Site explorerが正式版へ
      0
        ついにβ版から正式版へと移行しました。
        正式版のリリースに伴い、以下の機能が追加されています。

        ・モバイルサイト対応
         ここでモバイルサイトを登録することで、mobile crawlerが巡回
         してくるようです。
         モバイルサイトを持っていないので、知りませんでしたがWebと
         モバイルでCrawlerが分かれてたんですね。
         勉強になります。
         なお、Feedは以下のものに対応するようです。
         Rss0.9
         Rss1.0
         Rss2.0
         Sitemaps.xml
         Atom0.3
         Atom1.0,
         TextファイルにURLのリストを乗せたもの
         単一Webページ
         
         モバイルだとどうなんでしょうか。
         やっぱり、一般的なのはRssかSitemaps.xmlなんでしょうねぇ。

        ・URLの削除機能
         実際にSite explorerにログインして確かめると分かりますが、
         リスト画面からと、Explorerボタンを押した後の画面から削除で
         きるようになっています。

        ・スパムレポート
         Google爆弾の影響でしょうか。
         スパムレポートボタンが実装されました。
         Explorerボタンを押した後のリストで、カーソルを当てるとボタ
         ンが表示されます。
         まぁ、でもトラストリンクの信用性がいまいちなので、被リンク
         でもらってる分にはあまり使用しない機能かなと思います。

        いずれにしても、Googleに追いつけ追い越せの感じですね。
        先日のIndexのUpdateとエンジンの刷新(これは日本だけですが。)
        に加えて、今回のSite Explorerのリリースと怒涛の勢いでリリース
        をしています。

        個人的にはカテゴリサイトのブラッシュアップに力を入れて欲しい
        と思っています。
        Yahooと言えば、カテゴリ登録サイトですよ!

        参照記事:
        http://p7.hostingprod.com/@www.ysearchblog.com
        /archives/000436.html
        | SEO | 12:17 | comments(0) | trackbacks(0) | - | - |
        SEO crammer YSTアルゴリズム変更その後
        0
          少しずつ検証を始めだしました。
          大体30サイトくらいを対象に見ているのですが、どうにも傾向がつかめない
          感じです。

          まず、SEOの基本と言われる下記項目から調べて見ました。
          ・被リンク数
          ・1HTML内総単語数
          ・1HTML内キーワード数
          ・1HTML内キーワード比率

          結果として同等の上記の値をもつ複数のサイトで順位が上がったり、下がっ
          たりしていました。

          一応、順位変動幅を従属係数にして、重回帰分析をしましたが、予想通り式
          が成り立たない感じでした。

          たぶん、サイト年齢や被リンク取得時期や、トラストランクなどが関係して
          いるのだと思いますが、そこまでのデータが無い為にかなり手間取っていま
          す。
          トラストランクについては、まったく関係のないサイトから被リンクを貼っ
          ているサイトが複数あり、それぞれ見てみましたが、やはり一部は上がって
          一部は下がるという一貫性のない結果になりました。
          トラストランクもちょっとどうなんだろうという感じです。

          一部、サイト年齢の若いサイトに上昇傾向が見て取れたので、もしかしたら
          サイト年齢の重み付けが軽くなったかもしれません。

          ただ、今日またキャッシュ日に変動があり、古い日付のキャッシュを見かけ
          るようになりました。
          その結果、3月31日以前のランキングに戻っているサイトもありました。

          Yahooの発表ではエンジンの刷新と言っていましたので、導入後の運用テスト
          で不具合があり、一部修正を加えているのではないかと予想されます。

          いずれにせよ、今後は被リンク取得時期と被リンク先のトラストランクまで
          気をつけてデータを取っていくようにしようと思います。
          | SEO | 12:53 | comments(0) | trackbacks(1) | - | - |
          SEO crammer YSTアルゴリズム変更
          0
            Yahooが3月31日に、大幅にアルゴリズムを変更したようです。
            今回の変更は、マイナーチェンジではなく、エンジン自体の刷新と
            言うことなので、かなり大幅な順位変動があるかもしれません。

            後日、手持ちサイトの順位変動がどうなっているのか分かり次第、
            お知らせしたいと思います。

            気になる方は、こちらから検索してみてください。



            Yahoo!検索







            参照記事:http://blogs.yahoo.co.jp/yjsearchblog/45892793.html
            | SEO | 02:19 | comments(0) | trackbacks(0) | - | - |
            SEO crammer Slurpの変更(追記)
            0
              昨日の記事情報に漏れがありましたので、追記します。
              Robots.txtに関してですが、ロボットのアクセスをDNSで設定している
              場合は、新しいホスト名'crawl.yahoo.net'を受け入れるように更新を
              しなければなりませんので、ご注意ください。
              | SEO | 01:52 | comments(0) | trackbacks(0) | - | - |
              SEO crammer Slurpの変更
              0
                YahooがSlurpのドメイン名を、下記のように移行しているようです。

                OLD:inktomisearch.com
                NEW:crawl.yahoo.net

                ただし、Robots.txtに関してはSlurp名が変更されないため、今まで
                通りに以下の設定で問題ないようです。

                User-agent: Slurp

                今後、数週間に渡ってこの移行が続けられ、将来的にはすべてcrawl.yahoo.net
                に変更されます。

                さて、これはYahooで何かしらのアルゴリズムの変更タイミングと合
                わせて行われているのか、非常に興味深いところです。
                今のところ、検索結果に変化は無い様に思われますが。。。

                参照記事:
                http://p7.hostingprod.com/@www.ysearchblog.com/archives/
                000426.html
                | SEO | 06:31 | comments(0) | trackbacks(0) | - | - |
                SEO crammer Blogサイト危うしか?
                0
                  Yahoo Japanにブログフィルタが導入されました。
                  仕様としては、検索結果に一定以上のブログが入っている場合に、
                  「ブログを含めずに再検索」のリンクが表示されます。
                  そのリンクをクリックすることで、ブログを除いた検索結果を表示
                  する事が可能となります。
                  また、検索オプションにもブログフィルタを使用するかどうかのチ
                  ェックボックスが追加されています。
                  さらに、検索コマンドでもブログフィルタを作動させる事ができる
                  用です。

                  ブログフィルタコマンド 「filter:blog キーワード」

                  現在、無料ブログのみを対象としているとの噂もありましたので、
                  実際にこのブログで実験してみました。

                  その結果、このSEO crammerについては、独自ドメインを使用して
                  作成しているため、ブログフィルターには引っかかりませんでし
                  た。

                  ***************実験方法と結果***************

                  検索窓にhttp://seo.pachiri.com/を入力。
                  検索窓にfilter:blog seo.pachiri.comを入力。
                  ブログフィルタのテキストは出現せず

                  他の無料ブログの場合は、上記のブログフィルタのテキストが
                  表示される。

                  ********************************************

                  いずれにせよ、無料ブログが一般化しており、その中でWebビジネス
                  を行っている人達には頭の痛い問題だと思います。

                  Yahooの公式ブログにも明記してありましたが、そもそもこのブログ
                  フィルタを導入したのはユーザからのコンプレインがあった為との
                  事でした。

                  ということは、今後、同様の意見が引き続きある場合には、デフォル
                  トでブログフィルタがONになる事も考えられます。

                  その場合、ブログサイトのSEOはかなり深刻なダメージを受ける事に
                  なるでしょう。


                  Yahooスタッフブログはこちら>>>
                  http://blogs.yahoo.co.jp/yjsearchblog/45790511.html
                  | SEO | 10:55 | comments(0) | trackbacks(0) | - | - |
                  SEO crammer Google新広告システム
                  0
                    Yahoo panamaに引き続いて、Googleにて新広告システム
                    (Pay-Per-Action)が登場しました。
                    まだ、Google.comのβ版としてですが、PPC広告のアドバ
                    ンスドモデルのようです。

                    今までのように、自サイトないに設置した広告をユーザ
                    がクリックしただけでは、報酬が発生しないようです。
                    PPRは報酬発生条件を広告主が設定できるようです。
                    そのため、例えば契約制約時に報酬が発生するような条件
                    下では、PPCスパムを抑制することができます。

                    現在は、β版のためこのシステムに申し込みできるのは
                    米国市場のみで、さらにアカウントの発行も保障されて
                    いないようです。

                    しかし、正規版が発表されるのも時間の問題だと思います
                    ので、どのような報酬発生条件があるのかを気をつけて
                    見て行きたいと思います。

                    Pay-Per-Actionのサイトはこちら >>>
                    http://services.google.com/payperaction/
                    | SEO | 10:06 | comments(0) | trackbacks(0) | - | - |