にしし ふぁくとりー:西村文宏 個人サイト

No.3135, No.3134, No.3133, No.3132, No.3131, No.3130, No.3129[7件] - 今日のひとことログ

更新

■LOG No.3135, No.3134, No.3133, No.3132, No.3131, No.3130, No.3129[7件]

にししふぁくとりーHOMEに掲載している「今日のひとこと」の過去ログ(掲載履歴)です。 RSS

No.3135 〔193文字〕

ブラウザのタブをドラッグして表示順を変更しようと操作するときに、ちょっと手元が狂ってそのタブが独立ウインドウに出てしまうことがある。個人的には、タブをドラッグして別ウインドウに独立させたいと思うことはなく、タブをドラッグするときは例外なくタブの順序を入れ替えたいだけだ。タブのマウス操作について「ドラッグで移動はできるが、別ウインドウに独立はさせない」という設定ができると嬉しいのだが。

No.3134 〔63文字〕

もしかしてdirectの発音は、動詞や副詞として使うときは「ディレクト」で、形容詞として使うときだけが「ダイレクト」なの……?

No.3133 〔32文字〕

90分ほど部屋を換気したら、室温が18度から13度まで下がった。

No.3132 〔873文字〕 📖

クローラーがrobots.txtを頻繁に読んでくれるのは(設定値がすぐに反映されそうで)嬉しいのだが、bingbotはなぜ1日に70回もrobots.txtを読んでいるのか。googlebotは1日に4回だった。平均を取ったわけではなく、ある特定の1日のサーバログを見ただけだが。robots.txt以外の全ページを含めたアクセス回数では、bingbotは10,785回、googlebotは3,958回だったので、bingbotは全クロールの0.65%をrobots.txtの読み込みに使っており、googlebotだと0.1%である。bingbotのアクセス頻度が高すぎるので、とりあえずrobots.txtに「User-agent: Bingbot、Crawl-delay: 30」の記述を加えてみた。1日に70回も読んでいるなら、約20分以内には制限を反映してくれるものと期待しているのだが。これでアクセス頻度が落ちなかったら、プログラム側で(何回かに1回の割合で)HTTPステータスコード429を返すようフィルタを作る必要がありそうだ。Bing Webmaster Toolにはクロール時間帯を調整する機能はあるのだが、総数を抑制する機能はないっぽい。なお、googlebotはrobots.txtx内に「Crawl-delay」を書いても読まない(解釈しない)らしい。そういえばGoogle側のドキュメントには、クロール頻度を調整したければHTTPステータスコード429を返せばそのうちGoogle側が学習してアクセス頻度を落とすとか何とか書いてあったような気がする。429ではなかったかもしれない。なお、ここのサイト(www.nishishi.com)の話ではない。ここのサイトは無駄なアクセスが多くても困らない(サーバの負荷さえ高くならなければ問題ない)のでログを調べていない。外部のWebサービスのAPIを利用してページを生成しているサイトでは、無駄なアクセスが多すぎると困るので、Botのアクセス頻度を調整する必要があるのだ。

No.3131 〔201文字〕

COVID-19の変異株には名称が付けられているが、イギリスで発見されたB.1.1.7の「B」は何の略だろうか。この手のウイルスに地名は付けない方針になったと思うのでBritainの略ではないと思ったのだが。同記事によると南アフリカで発見された変異株には501Y.V2という名称が付けられているので、もしかしたらこれらは発見した人が名付けただけで何か公式の(世界共通の)命名法則があるわけではないのか。

No.3130 〔56文字〕

いろんな毛色の猫でも、足の先だけ真っ白という靴下猫が居るが、足先が白いことは進化上の利点が何かあったのだろうか?

No.3129 〔738文字〕 📖

とあるWebサービスのAPIには1日のリクエスト数に制限があって、それを超えてしまうとエラーが返ってくるようになってしまう。なので、リクエスト数を超えないよう調整が必要なのだが、このところリクエスト数が結構高いところまで増えてしまっていた。いま確認したら23時間29分の時点で95%を消費していた。ちょっとアクセスが集中したら権利を使い果たしてしまいそうな感じだ。本当にユーザが多いわけではなく、大半はbotからのアクセスだろうと思うのだが。いくつかの方法でbotからのアクセスを弾いたり頻度を制限したりしているのだが、何かそのフィルタをすり抜けるbotが増えてきたのだろう。早めにフィルタを追加した方が良さそうだ。放っておくと1日に数千回とかアクセスしてくるような悪質なbotが時々現れるので困る。(私が作っている)Webへのアクセスをそのまま(Webサービスの)APIに投げるようなことはしておらず、同じデータは一定期間(数週間)は1回しか取得せずに済むようにキャッシュを取っているのだが、それでも1日のリクエスト数が上限ギリギリになるとなると、相当なアクセス数になっているのだろう。サーバのログを見ないとハッキリしないが。今は「botのようだったらフィルタを通す」というようなプログラムを書いているのだが、これだといたちごっこになりがちなので、どうしても対処できなさそうなら「人間っぽくなければ全部フィルタを通す」というような方法にせざるを得ないかもしれない。マイナーなアクセス環境から来ていても正しく閲覧できるようにしたいと考えて前者の方法を採用しているのだが。後者の方法を採ると「本当は人間なのに弾かれてしまう」ケースが出てくる可能性があるので、最後の手段にしたい。
2020年12月
12345
6789101112
13141516171819
20212223242526
2728293031
2021年1月
12
3456789
10111213141516
17181920212223
24252627282930
31
2021年2月
123456
78910111213
14151617181920
21222324252627
28

Powered by てがろぐ Ver 4.5.2

--- 当サイト内を検索 ---