にしし ふぁくとりー:西村文宏 個人サイト

2021年2月5日の投稿(時系列順)[11件] - 今日のひとことログ

更新

■LOG 2021年2月5日の投稿(時系列順)[11件]

にししふぁくとりーHOMEに掲載している「今日のひとこと」の過去ログ(掲載履歴)です。 RSS

No.3126 〔69文字〕

入試で受験番号を書き忘れる人々がたくさん居るのだろう。このブログ記事の月間閲覧数が大きく増えると「ああ入試の季節なのだな」という気がする。

No.3127 〔144文字〕

それ以上に、Windows Updateが不明なエラーを報告してくる場合の対処方法を書いた記事の方が月間閲覧数が多かったのだが、1月は何かアップデートの問題でも多かったのだろうか。ただ、これはWindows7での話なので(6年半前の記事である)、いま読んで役に立つかどうかは分からないが。

No.3128 〔55文字〕

夜に作業をしていたが、あまりにも眠かったので3時間ほど寝て、夜中からまた再開した。腹減ったなう。(´・ω・`)

No.3129 〔738文字〕 📖

とあるWebサービスのAPIには1日のリクエスト数に制限があって、それを超えてしまうとエラーが返ってくるようになってしまう。なので、リクエスト数を超えないよう調整が必要なのだが、このところリクエスト数が結構高いところまで増えてしまっていた。いま確認したら23時間29分の時点で95%を消費していた。ちょっとアクセスが集中したら権利を使い果たしてしまいそうな感じだ。本当にユーザが多いわけではなく、大半はbotからのアクセスだろうと思うのだが。いくつかの方法でbotからのアクセスを弾いたり頻度を制限したりしているのだが、何かそのフィルタをすり抜けるbotが増えてきたのだろう。早めにフィルタを追加した方が良さそうだ。放っておくと1日に数千回とかアクセスしてくるような悪質なbotが時々現れるので困る。(私が作っている)Webへのアクセスをそのまま(Webサービスの)APIに投げるようなことはしておらず、同じデータは一定期間(数週間)は1回しか取得せずに済むようにキャッシュを取っているのだが、それでも1日のリクエスト数が上限ギリギリになるとなると、相当なアクセス数になっているのだろう。サーバのログを見ないとハッキリしないが。今は「botのようだったらフィルタを通す」というようなプログラムを書いているのだが、これだといたちごっこになりがちなので、どうしても対処できなさそうなら「人間っぽくなければ全部フィルタを通す」というような方法にせざるを得ないかもしれない。マイナーなアクセス環境から来ていても正しく閲覧できるようにしたいと考えて前者の方法を採用しているのだが。後者の方法を採ると「本当は人間なのに弾かれてしまう」ケースが出てくる可能性があるので、最後の手段にしたい。

No.3130 〔56文字〕

いろんな毛色の猫でも、足の先だけ真っ白という靴下猫が居るが、足先が白いことは進化上の利点が何かあったのだろうか?

No.3131 〔201文字〕

COVID-19の変異株には名称が付けられているが、イギリスで発見されたB.1.1.7の「B」は何の略だろうか。この手のウイルスに地名は付けない方針になったと思うのでBritainの略ではないと思ったのだが。同記事によると南アフリカで発見された変異株には501Y.V2という名称が付けられているので、もしかしたらこれらは発見した人が名付けただけで何か公式の(世界共通の)命名法則があるわけではないのか。

No.3132 〔873文字〕 📖

クローラーがrobots.txtを頻繁に読んでくれるのは(設定値がすぐに反映されそうで)嬉しいのだが、bingbotはなぜ1日に70回もrobots.txtを読んでいるのか。googlebotは1日に4回だった。平均を取ったわけではなく、ある特定の1日のサーバログを見ただけだが。robots.txt以外の全ページを含めたアクセス回数では、bingbotは10,785回、googlebotは3,958回だったので、bingbotは全クロールの0.65%をrobots.txtの読み込みに使っており、googlebotだと0.1%である。bingbotのアクセス頻度が高すぎるので、とりあえずrobots.txtに「User-agent: Bingbot、Crawl-delay: 30」の記述を加えてみた。1日に70回も読んでいるなら、約20分以内には制限を反映してくれるものと期待しているのだが。これでアクセス頻度が落ちなかったら、プログラム側で(何回かに1回の割合で)HTTPステータスコード429を返すようフィルタを作る必要がありそうだ。Bing Webmaster Toolにはクロール時間帯を調整する機能はあるのだが、総数を抑制する機能はないっぽい。なお、googlebotはrobots.txtx内に「Crawl-delay」を書いても読まない(解釈しない)らしい。そういえばGoogle側のドキュメントには、クロール頻度を調整したければHTTPステータスコード429を返せばそのうちGoogle側が学習してアクセス頻度を落とすとか何とか書いてあったような気がする。429ではなかったかもしれない。なお、ここのサイト(www.nishishi.com)の話ではない。ここのサイトは無駄なアクセスが多くても困らない(サーバの負荷さえ高くならなければ問題ない)のでログを調べていない。外部のWebサービスのAPIを利用してページを生成しているサイトでは、無駄なアクセスが多すぎると困るので、Botのアクセス頻度を調整する必要があるのだ。

No.3133 〔32文字〕

90分ほど部屋を換気したら、室温が18度から13度まで下がった。

No.3134 〔63文字〕

もしかしてdirectの発音は、動詞や副詞として使うときは「ディレクト」で、形容詞として使うときだけが「ダイレクト」なの……?

No.3135 〔193文字〕

ブラウザのタブをドラッグして表示順を変更しようと操作するときに、ちょっと手元が狂ってそのタブが独立ウインドウに出てしまうことがある。個人的には、タブをドラッグして別ウインドウに独立させたいと思うことはなく、タブをドラッグするときは例外なくタブの順序を入れ替えたいだけだ。タブのマウス操作について「ドラッグで移動はできるが、別ウインドウに独立はさせない」という設定ができると嬉しいのだが。

No.3136 〔914文字〕

15年くらい所有していたドメイン名(.com)を1つ破棄しようと思っているのだが(維持費が無駄なので)、破棄した直後に広告業者に買われて広告サイトに変貌してしまうのはできれば避けたいので、ドメインの価値を充分に下げておこうとしている。ウェブサイトの中身の大半は、別ドメインで稼働させているウェブサイト上に代替ページがある(ほぼ1対1で対応するページがある)ので、まずはそこへ301でリダイレクトするように設定した。それが1年前くらいだった気がする。Googleの検索結果では、なぜか1ページだけ元ドメインのままのゴミが残っているのだが、それ以外は元ドメインでの情報はヒットしないので、基本的には別ドメインの方に移転できていると考えて良いだろう。そこで今日、破棄予定のドメインではすべてのページで「410 Gone」を返すように設定した。方法は簡単で、Webのルートディレクトリに置いた .htaccessファイルに「Redirect gone /」と1行を書いておくだけだ。これで、このドメイン下のどこにアクセスしても「Gone/The requested resource is no longer available on this server and there is no forwarding address. Please remove all references to this resource.」というエラーだけが表示される。このまま数ヶ月くらい放置すれば検索サイトの検索結果からも消滅して、ドメインの価値は大きく下がるのではないかなと期待しているのだがどうだろうか。やってみないと分からないので、実践しているところである。被リンクもゼロにできれば望ましいのだが、それはサイト運営者側にはどうにもできないので仕方がない。破棄ドメインの権利を買って広告サイトを設置する業者は、どういう基準で(どういうツールでドメインの価値を調べて)再取得ドメインを選んでいるのだろうか。破棄するからには、その後のドメインがどう使われるか制御はできないわけだが、何もせずに破棄するよりはしっかり価値を低下させてから破棄したい。
2020年12月
12345
6789101112
13141516171819
20212223242526
2728293031
2021年1月
12
3456789
10111213141516
17181920212223
24252627282930
31
2021年2月
123456
78910111213
14151617181920
21222324252627
28

Powered by てがろぐ Ver 4.5.2

--- 当サイト内を検索 ---