http://qb3.2ch.net/test/read.cgi/operate/1082125059/864-865n
864 :動け動けウゴウゴ2ちゃんねる :04/04/26 16:31 ID:XBHI6262
全datさらうのを勧めるのもどうかと
865 :留守番 ★ :04/04/26 16:42 ID:???
>>864
最近増えてきているんですよねぇ
.htaccess で deny の規制が復活の予感。
http://qb3.2ch.net/test/read.cgi/operate/1082125059/867-868n
867 :root ★ :04/04/26 16:47 ID:???
datかっさらいもさることながら、read.cgi経由も目につくような気が。
868 :留守番 ★ :04/04/26 16:49 ID:???
>>867
ですねぇ
思い立ったが吉日ってことで
スレ立ててやりましょ
【.htaccess】読みこみできない【規制作戦】
■ このスレッドは過去ログ倉庫に格納されています
1動け動けウゴウゴ2ちゃんねる
04/04/26 17:35ID:VlICTc6W カスタマイズできるということもあると思うけど、
ロボットはじきに限定なら > robots.txt
システム共通化ができる. > .htaccess
という面もあるのではないかと思われ。
ロボットはじきに限定なら > robots.txt
システム共通化ができる. > .htaccess
という面もあるのではないかと思われ。
543FOX ★
04/05/31 15:38ID:??? deny from 211.4.214.173 #(608) 4.3%
deny from 211.4.214.174 #(512) 3.62%
deny from 219.18.*.* #(137) 0.97%
deny from 61.115.*.* #(106) 0.75%
deny from 172.205.*.* #(76) 0.54%
deny from 211.4.214.174 #(512) 3.62%
deny from 219.18.*.* #(137) 0.97%
deny from 61.115.*.* #(106) 0.75%
deny from 172.205.*.* #(76) 0.54%
544ひろゆき ◆3SHRUNYAXA
04/05/31 15:41ID:+a3NVc0S 悪意のある人をはじくのが目的だから、
robots.txtなんて読んでないと思われ。
robots.txtなんて読んでないと思われ。
545ひろゆき ◆3SHRUNYAXA
04/05/31 15:47ID:+a3NVc0S546動け動けウゴウゴ2ちゃんねる
04/05/31 15:50ID:Et/QZbdh04/05/31 15:51ID:54g9cY0V
>>543
ケイディディ株式会社 (KDD Corporation)
SUBA-035-153 [サブアロケーション] 211.4.214.0
株式会社イーツ (I2TS Inc.)
I2TS-NET2 [211.4.214.128 <-> 211.4.214.191] 211.4.214.128/26
なんだろこの会社
ひろゆき的に、ググルロボは悪意なの?
ケイディディ株式会社 (KDD Corporation)
SUBA-035-153 [サブアロケーション] 211.4.214.0
株式会社イーツ (I2TS Inc.)
I2TS-NET2 [211.4.214.128 <-> 211.4.214.191] 211.4.214.128/26
なんだろこの会社
ひろゆき的に、ググルロボは悪意なの?
04/05/31 16:03ID:EX3viIa5
>>541は一面的には正しい。
GoogleBotの類に対してはrobots.txtを自動で読ませて自力で帰ってもらうようにしたほうが
いちいちIPアドレスを調べてこちら側で範囲を推測して.htaccessを設定するよりもずっと手間は楽なはず。
大手検索エンジンのクローラ以外にもrobots.txtを読んでくれるやつがもしかしたらあるかもしれないし、
ファイル置くだけで勝手に帰ってくれるんだから置いておくことについてはいいことじゃん。と思う。
GoogleBotの類に対してはrobots.txtを自動で読ませて自力で帰ってもらうようにしたほうが
いちいちIPアドレスを調べてこちら側で範囲を推測して.htaccessを設定するよりもずっと手間は楽なはず。
大手検索エンジンのクローラ以外にもrobots.txtを読んでくれるやつがもしかしたらあるかもしれないし、
ファイル置くだけで勝手に帰ってくれるんだから置いておくことについてはいいことじゃん。と思う。
04/05/31 16:05ID:xXn4JNzx
550FOX ★
04/05/31 16:07ID:??? やっていることは・・・
google だから弾くじゃなくてさ
極端に資源を食っているアクセス元を弾くなんだな
それが たまたままたまたまたまた(ry
肩が痛い、30肩が悪化したようだ
google だから弾くじゃなくてさ
極端に資源を食っているアクセス元を弾くなんだな
それが たまたままたまたまたまた(ry
肩が痛い、30肩が悪化したようだ
551動け動けウゴウゴ2ちゃんねる
04/05/31 16:09ID:Et/QZbdh552FOX ★
04/05/31 16:11ID:??? 二十腰。
04/05/31 16:13ID:EX3viIa5
ただの更年期障害では…
なんか弾かなければならない、という強迫観念みたいなのが見て取れるかんじ。
帯域食ってるのはさくっと別扱いにしません?
なんか弾かなければならない、という強迫観念みたいなのが見て取れるかんじ。
帯域食ってるのはさくっと別扱いにしません?
04/05/31 16:14ID:W0e8b8Z7
及び腰、というのはどうか。
555FOX ★
04/05/31 16:16ID:??? >>553
たとえば 全資源の 10% を使って read.cgi をぶん回しているとこが
5箇所あったらどーする?
半分はそこの為に全労力を2ちゃんねるが無料で提供しているわけだ
50% とかはまじな話しです
強迫観念どころか、全精力を傾けて排除中。。。
たとえば 全資源の 10% を使って read.cgi をぶん回しているとこが
5箇所あったらどーする?
半分はそこの為に全労力を2ちゃんねるが無料で提供しているわけだ
50% とかはまじな話しです
強迫観念どころか、全精力を傾けて排除中。。。
04/05/31 16:27ID:EX3viIa5
なんか>>553は自分でも変な書き方だなあ。
「.htaccessだけに固執しなくてもいいじゃん?」
…たぶんこれが近い。かも。robots.txtを避ける理由ないと思うし。
帯域食ってるのとアクセス回数多いのとは別に対処しようっての自体がなんか別の話だな。あれ?
ええと、それはサイトポリシーでもあると思うのでそれとしてひとつ質問。
最近弾いた効果って転送量とか鯖負荷とかで目に見えて出てます?
「.htaccessだけに固執しなくてもいいじゃん?」
…たぶんこれが近い。かも。robots.txtを避ける理由ないと思うし。
帯域食ってるのとアクセス回数多いのとは別に対処しようっての自体がなんか別の話だな。あれ?
ええと、それはサイトポリシーでもあると思うのでそれとしてひとつ質問。
最近弾いた効果って転送量とか鯖負荷とかで目に見えて出てます?
557ひろゆき ◆3SHRUNYAXA
04/05/31 16:30ID:+a3NVc0S はじくの賛成ー。
04/05/31 16:33ID:aDzAN461
固定IPのケーブルでワイルドカード使ってるのも
そーゆーことなのかな
そーゆーことなのかな
559FOX ★
04/05/31 16:45ID:???04/05/31 16:49ID:W0e8b8Z7
今やっているような個人・団体のIPアドレス弾きにはrobots.txtは効果ないと思う。
あれはあくまで検索エンジンのロボットを弾くためのものだから。
あれはあくまで検索エンジンのロボットを弾くためのものだから。
561ひろゆき ◆3SHRUNYAXA
04/05/31 16:51ID:+a3NVc0S >>560さんに同意。
04/05/31 16:55ID:R1jQrsrR
04/05/31 16:56ID:EX3viIa5
04/05/31 16:56ID:H9FCybO3
robots.txtを置く
↓
ロボットさんのアクセスがなくなる
↓
他の人たちのパーセンテージが(ちょっと)上がる
↓
(゚д゚)ウマー
↓
ロボットさんのアクセスがなくなる
↓
他の人たちのパーセンテージが(ちょっと)上がる
↓
(゚д゚)ウマー
565FOX ★
04/05/31 16:57ID:??? あと、即効性が要求されるんですよねぇ
04/05/31 17:00ID:Z4tHhP2M
>>562
というか、単にGoogleあたりを避けるつもりでrobots.txtを置いてしまうと
「robots.txtを素直に読んでしまって入ってこれなくなる機械の体の人がいるのでマズい」
からなのではないかと(w
というか、単にGoogleあたりを避けるつもりでrobots.txtを置いてしまうと
「robots.txtを素直に読んでしまって入ってこれなくなる機械の体の人がいるのでマズい」
からなのではないかと(w
567 [―{}@{}@{}-] ux02.so-net.ne.jpn
04/05/31 17:00ID:D3FZv0gH >>556
>robots.txtを避ける理由ないと思うし。
robots.txtを見るのはクライアント側の任意(見ない場合もあるのでスクリプトには無意味)
.htaccessは鯖側が強制的に弾く
>560-561が正しい
>robots.txtを避ける理由ないと思うし。
robots.txtを見るのはクライアント側の任意(見ない場合もあるのでスクリプトには無意味)
.htaccessは鯖側が強制的に弾く
>560-561が正しい
04/05/31 17:18ID:EX3viIa5
で、一応方向性としては
・ 今はApacheのその日の普通のaccess.logを全部読み込んで
IPアドレス順に並べたり抜き出したりして数えてる
(もっと早い軽いプログラムがあればそれを使ってもいい)
・ (昨日の)access.logを自動で解析して今日の悪い人一覧とか抜き出して
その鯖の.htaccessに反映させたりしたい
・ 溜まった.htaccessの不要なdenyは定期的に掃除できると便利かも
という感じでよろしいんでしょか。
まとめておくとだれかスーパーハクァーな人が名乗り出てくれるかもしれないし。
>>567
でもrobots.txtは一度設定しておけばどんな紳士的ロボットに対しても有効。
メンテナンス不要なんだし併用を検討してもいいんじゃないかなとゆー意見。
ただ、robots.txtは一応Webサーバ上のただのasciiファイルなんで、
アクセスする際の負荷がある以上無問題とまではいかないんだけど。まあ未来へのお守りというか。
・ 今はApacheのその日の普通のaccess.logを全部読み込んで
IPアドレス順に並べたり抜き出したりして数えてる
(もっと早い軽いプログラムがあればそれを使ってもいい)
・ (昨日の)access.logを自動で解析して今日の悪い人一覧とか抜き出して
その鯖の.htaccessに反映させたりしたい
・ 溜まった.htaccessの不要なdenyは定期的に掃除できると便利かも
という感じでよろしいんでしょか。
まとめておくとだれかスーパーハクァーな人が名乗り出てくれるかもしれないし。
>>567
でもrobots.txtは一度設定しておけばどんな紳士的ロボットに対しても有効。
メンテナンス不要なんだし併用を検討してもいいんじゃないかなとゆー意見。
ただ、robots.txtは一応Webサーバ上のただのasciiファイルなんで、
アクセスする際の負荷がある以上無問題とまではいかないんだけど。まあ未来へのお守りというか。
04/05/31 17:20ID:SyMKHu9n
570FOX ★
04/05/31 17:22ID:???571ひろゆき ◆3SHRUNYAXA
04/05/31 17:24ID:+a3NVc0S >>568
robots.txtを読むような紳士的なロボットであれば、
はじく必要ないと思うのですよ。
んで、robots.txtを読むのであれ、読まないのであれ、
紳士的でない負荷をかけるIPであれば遮断すると。
robots.txtを読むような紳士的なロボットであれば、
はじく必要ないと思うのですよ。
んで、robots.txtを読むのであれ、読まないのであれ、
紳士的でない負荷をかけるIPであれば遮断すると。
04/05/31 17:38ID:aDzAN461
リクエストの元がどんな種類のものであれ、
現在の負荷のみで判断して、即座に止めるてことかー
んで一定期間でリセットする(予定)と
現在の負荷のみで判断して、即座に止めるてことかー
んで一定期間でリセットする(予定)と
04/05/31 17:42ID:y1UPLd+M
オフトピ臭いけど、紳士的かどうかに関係なくロボットは遮断してしまえば、
SEO目当ての業者を排除できるという副次的メリットが生まれるんじゃないかな。
むやみに2chからリンクされたページの順位は下げるロボットがいたらいいのに。
SEO目当ての業者を排除できるという副次的メリットが生まれるんじゃないかな。
むやみに2chからリンクされたページの順位は下げるロボットがいたらいいのに。
あー、なるほど。
過去に過剰負荷をかけたクローラーでも、別IPでまたーりクロールするならOKで、
そのまたーりクロールの妨げになるrobots.txtは置かないと。
過去に過剰負荷をかけたクローラーでも、別IPでまたーりクロールするならOKで、
そのまたーりクロールの妨げになるrobots.txtは置かないと。
04/05/31 17:45ID:EX3viIa5
576FOX ★
04/05/31 17:53ID:??? 現在 毎時別のファイルに吐き出しています
つまり1ファイル最大一時間分のでーた
つまり1ファイル最大一時間分のでーた
04/05/31 17:55ID:aDzAN461
578FOX ★
04/05/31 17:57ID:???04/05/31 18:00ID:aDzAN461
それまで手動でごりごりやるの大変だね
まーがんがって
まーがんがって
580FOX ★
04/05/31 18:02ID:???581 [―{}@{}@{}-] ux02.so-net.ne.jpn
04/05/31 18:03ID:D3FZv0gH >>570
>たとえば 10 分毎にデータを取って
>前の 10分に負荷を独り占めしたところは 以降 deny
どのぐらいの負荷なんだろう?
極端に書くと
A.100,000個のIPから読み込みがある時間帯で1%
B.まったくアクセスが無い時間帯で100%
Aの時間帯は人多いからログ取らないで
Bの時間帯で人が少ない(いない)時に過去ログ作るためにログ取っていったらアウトってことになる
>たとえば 10 分毎にデータを取って
>前の 10分に負荷を独り占めしたところは 以降 deny
どのぐらいの負荷なんだろう?
極端に書くと
A.100,000個のIPから読み込みがある時間帯で1%
B.まったくアクセスが無い時間帯で100%
Aの時間帯は人多いからログ取らないで
Bの時間帯で人が少ない(いない)時に過去ログ作るためにログ取っていったらアウトってことになる
04/05/31 18:05ID:EX3viIa5
04/05/31 18:08ID:LaN7Fkq2
>>581
深夜番組の視聴率と占有率みたい。
深夜番組の視聴率と占有率みたい。
584FOX ★
04/05/31 18:08ID:??? >>581
ならないって
ならないって
585FOX ★
04/05/31 18:10ID:??? ・常時規制はeveryday.txt
・一時規制はtoday.txt
・一時規制の記録はold.txt
・一時規制は日付変更で消去
n分毎にファイルを出力
↓
ソートしてA回以上でかつB%以上を抽出(%だけだと混雑時間帯にクロールかけたほうが特になるから、空いている時間に猶予を)
↓
today.txtとold.txtにピンポイントで出力
↓
everyday.txtとtoday.txtを合わせて.htaccessに出力
↓
.htaccessを配る
みたいな感じ?
・一時規制はtoday.txt
・一時規制の記録はold.txt
・一時規制は日付変更で消去
n分毎にファイルを出力
↓
ソートしてA回以上でかつB%以上を抽出(%だけだと混雑時間帯にクロールかけたほうが特になるから、空いている時間に猶予を)
↓
today.txtとold.txtにピンポイントで出力
↓
everyday.txtとtoday.txtを合わせて.htaccessに出力
↓
.htaccessを配る
みたいな感じ?
04/05/31 18:11ID:xb6GE8Db
そんなスクリプトが欲しいなぁ
負荷かけまくり→.htaccess弾きを出力
そういえば昔わしづかみくんとかあったような・・・
負荷かけまくり→.htaccess弾きを出力
そういえば昔わしづかみくんとかあったような・・・
588FOX ★
04/05/31 18:13ID:???04/05/31 18:14ID:H9FCybO3
やっぱDNSでしょ。
590FOX ★
04/05/31 18:15ID:??? 自動解除にするのは
解除すれーな方々を放置したいからです
解除すれーな方々を放置したいからです
04/05/31 18:15ID:aDzAN461
592 [―{}@{}@{}-] ux02.so-net.ne.jpn
04/05/31 18:19ID:D3FZv0gH593ひろゆき ◆3SHRUNYAXA
04/05/31 18:20ID:+a3NVc0S おぉ、、ついにわしづかみくんの出番か!
04/05/31 18:21ID:EX3viIa5
04/05/31 18:23ID:H9FCybO3
ログが吐かれるとa.b.c.d.log.2ch.netを引く
(こんな仕組みができるのかは不明)
↓
log.2ch.netはN分ごとにdenyリストを作ってばらまく
↓
朝になったら空の.htaccessを配布
こんなのできたら(゚д゚)ウマーな気がするけどなー
(こんな仕組みができるのかは不明)
↓
log.2ch.netはN分ごとにdenyリストを作ってばらまく
↓
朝になったら空の.htaccessを配布
こんなのできたら(゚д゚)ウマーな気がするけどなー
04/05/31 18:26ID:aDzAN461
串取得だっけそーいえばlist自動作成やってたね
597FOX ★
04/05/31 18:29ID:??? >>595
書き込みだけでもひーひー言っているのに、
書き込みだけでもひーひー言っているのに、
1ヵ所で全管理は無謀だから、
問題のあるIPを抽出してその結果を中央サーバに送るまでが、各掲示板サーバの仕事。
送られてきた結果をまとめてhtaccessにして各掲示板サーバに配るだけが、中央サーバの仕事。
かな。
問題のあるIPを抽出してその結果を中央サーバに送るまでが、各掲示板サーバの仕事。
送られてきた結果をまとめてhtaccessにして各掲示板サーバに配るだけが、中央サーバの仕事。
かな。
5992chtubo愛用者〜ヘ(゚д゚ヘ))))))〜61 ◆2CHTUBOC5A
04/05/31 18:39ID:MhVV1CF4 ↓未承諾さんが颯爽と登場
600 [―{}@{}@{}-] ux02.so-net.ne.jpn
04/05/31 18:39ID:D3FZv0gH >>593
?
そんなことはどうでもいいや
ログのかっさらいするには
1.大手のISPに入り繋ぎ変えしまくり
2.串を使いまわす
が残る
書き込みで串規制できても読み込みまでは対応不可
まともにやってる人は損をして変な事やってる人は得をするか・・・
これが某ネットゲーなら運営側が叩かれるな
?
そんなことはどうでもいいや
ログのかっさらいするには
1.大手のISPに入り繋ぎ変えしまくり
2.串を使いまわす
が残る
書き込みで串規制できても読み込みまでは対応不可
まともにやってる人は損をして変な事やってる人は得をするか・・・
これが某ネットゲーなら運営側が叩かれるな
04/05/31 18:43ID:3ofnL4zm
04/05/31 18:45ID:EX3viIa5
.htaccessのファイルの頒布とか他鯖のaccess.logの取得とかって
基本的に何を使ってやってるんですか? scpか何か?
基本的に何を使ってやってるんですか? scpか何か?
04/05/31 18:47ID:aDzAN461
>>600
将来的な話、速攻で自動規制できて毎日自動で解除するなら
ピンポイント規制だけでも良い気がするけどどうなんだろ
RSSとかで自動でとってる人は本人気付かない間にエラーで止まったままになりそうだし
将来的な話、速攻で自動規制できて毎日自動で解除するなら
ピンポイント規制だけでも良い気がするけどどうなんだろ
RSSとかで自動でとってる人は本人気付かない間にエラーで止まったままになりそうだし
604FOX ★
04/05/31 18:51ID:???605FOX ★
04/05/31 18:52ID:???606FOX ★
04/05/31 18:53ID:??? × ばとばと
○ ばしばし
○ ばしばし
607 [―{}@{}@{}-] ux02.so-net.ne.jpn
04/05/31 18:55ID:D3FZv0gH608FOX ★
04/05/31 18:57ID:???609ひろゆき ◆3SHRUNYAXA
04/05/31 18:58ID:+a3NVc0S そもそも、大量にログ取得する人で正当な目的のある人だったら、
おいらなり連絡くれればいいわけで、
それが出来ない人ってのは、正当な理由じゃない人だと思うのですね。
おいらなり連絡くれればいいわけで、
それが出来ない人ってのは、正当な理由じゃない人だと思うのですね。
04/05/31 18:58ID:tTRy4aZF
>607
かっさらってる時点で、“まとも”とはいえないと思う。
かっさらってる時点で、“まとも”とはいえないと思う。
611動け動けウゴウゴ2ちゃんねる
04/05/31 18:59ID:WGjCI1sM613未承諾広告※ ◆TWARamEjuA
04/05/31 19:06ID:+FuG1uTM ドロドロと登場。
tcpserver ではじいちゃうと、httpd の負荷も下がりそうな。
tcp.http に、弾きたい IP アドレス:deny を羅列、tcprules で .cdb に変換、rsync で各鯖に配布。
全鯖で、tcpserver -> httpd はなかなか難しいですよね(苦笑)
ドロドロと退席。
tcpserver ではじいちゃうと、httpd の負荷も下がりそうな。
tcp.http に、弾きたい IP アドレス:deny を羅列、tcprules で .cdb に変換、rsync で各鯖に配布。
全鯖で、tcpserver -> httpd はなかなか難しいですよね(苦笑)
ドロドロと退席。
04/05/31 19:06ID:W0e8b8Z7
04/05/31 19:07ID:bJb2o5hM
04/05/31 19:10ID:EX3viIa5
617動け動けウゴウゴ2ちゃんねる
04/05/31 19:11ID:oGdL4ivu618FOX ★
04/05/31 19:14ID:??? >>614
と考える人たちを優先的に弾く作戦です。
と考える人たちを優先的に弾く作戦です。
619 [―{}@{}@{}-] ux02.so-net.ne.jpn
04/05/31 19:14ID:D3FZv0gH04/05/31 19:15ID:Z4tHhP2M
04/05/31 19:17ID:oGdL4ivu
なにかしらのサービス(掲示板)を利用するなら、それに付随する
規約なり約款なりに同意しない限り利用はできないのは
一般的だと思いますが・・・。
それに同意できない方のご利用はご遠慮ください、と言おうと
してるのがこの作戦なわけで。
規約なり約款なりに同意しない限り利用はできないのは
一般的だと思いますが・・・。
それに同意できない方のご利用はご遠慮ください、と言おうと
してるのがこの作戦なわけで。
622名無し屋さん ◆1.9qmHhjqk
04/05/31 19:19ID:/aPpMDq8 ●餅だから底引きOKとは逝ってないからね。
俺はOCNですけど●買っといて良かった思っている
底引きの煽り食いたくないからね。
俺はOCNですけど●買っといて良かった思っている
底引きの煽り食いたくないからね。
04/05/31 19:21ID:EX3viIa5
>>620
一般ピーポーはそもそも大量にかっさらったりはしないと思う……。
一般ピーポーはそもそも大量にかっさらったりはしないと思う……。
04/05/31 19:22ID:xb6GE8Db
個人サイトで負荷かけてる原因わかったら普通に弾くし。
ほっといたら鯖屋さんに怒られちゃうか追い出されるかも。
みんながごそごそやって良かったら掲示板使えないね、悲しいね
ほっといたら鯖屋さんに怒られちゃうか追い出されるかも。
みんながごそごそやって良かったら掲示板使えないね、悲しいね
04/05/31 19:28ID:ty67F0zU
samba見たいに出来ないんですかね。
まだ○sec1
まだ○sec2
まだ○sec3
とか何カウントか警告メッセージ出して無視して続けたら一定時間規制。
まだ○sec1
まだ○sec2
まだ○sec3
とか何カウントか警告メッセージ出して無視して続けたら一定時間規制。
04/05/31 19:30ID:oGdL4ivu
04/05/31 19:38ID:7MMZQ240
何の事かわからない素人にとっては
(; ・∀・)鯖マデオツカイの所でもいいから注意表示きぼん
(; ・∀・)鯖マデオツカイの所でもいいから注意表示きぼん
04/05/31 19:39ID:EX3viIa5
631動け動けウゴウゴ2ちゃんねる
04/05/31 20:41ID:f7SM428W6322ちゃんねらの敵、悪魔ダミアン36歳 ◆Ydu2xwMLDw
04/05/31 20:42ID:l2fL+1z7 例えば、特定の板をどの位の間隔使って「全スレ取得」を試みた場合に
弾く対象にするのか?その辺りの識者の説明が欲しい・・・
う〜ん、書き込みだけじゃなくそろそろ読み込みに関してもsambaかける必要アリだな。
弾く対象にするのか?その辺りの識者の説明が欲しい・・・
う〜ん、書き込みだけじゃなくそろそろ読み込みに関してもsambaかける必要アリだな。
04/05/31 20:58ID:XEFg6mFm
で・・・
>>604
eagle-netの件はどうなんだろ?
(ISPは)ピンポイントで規制するはずなのに範囲規制になってる
どうも
「気に食わないISP」とか「マイナーすぎるISP」は範囲規制
大手のISPはピンポイント規制
としてないか?(ISPと判明してない所は除く)
>>604
eagle-netの件はどうなんだろ?
(ISPは)ピンポイントで規制するはずなのに範囲規制になってる
どうも
「気に食わないISP」とか「マイナーすぎるISP」は範囲規制
大手のISPはピンポイント規制
としてないか?(ISPと判明してない所は除く)
634動け動けウゴウゴ2ちゃんねる
04/05/31 21:42ID:KXE5dAOx >う〜ん、書き込みだけじゃなくそろそろ読み込みに関してもsambaかける必要アリだな。
あと同一IPの読み込み回数制限とか
あと同一IPの読み込み回数制限とか
04/05/31 21:50ID:XEFg6mFm
>>634
read.cgiだけなら可能
1.read.cgiでカウントし一定時間内に一定回数以上アクセスがあったら.htaccessに直接追加する
2.read.cgiでログを取って一定時間おきにスクリプト走らせて.htaccessに反映
.datに関しては今の所規制無し
read.cgiだけなら可能
1.read.cgiでカウントし一定時間内に一定回数以上アクセスがあったら.htaccessに直接追加する
2.read.cgiでログを取って一定時間おきにスクリプト走らせて.htaccessに反映
.datに関しては今の所規制無し
話題に追いつけていないので、>611 限定ですけど
ここにおいておきますね。
http://pc.2ch.net/test/read.cgi/unix/1044210109/237
> 237 名前:名無しさん@お腹いっぱい。[sage] 投稿日:03/02/03 04:44
> わしづかみくん→denylist.txtの生成
> http://2ch.dyndns.org/~2ch/washi.pl
> わしづかみたん→.htaccessの生成
> http://pc.2ch.net/washi001.txt
http://pc.2ch.net/test/read.cgi/unix/1044210109/428
http://pc.2ch.net/test/read.cgi/unix/1044210109/444
ここにおいておきますね。
http://pc.2ch.net/test/read.cgi/unix/1044210109/237
> 237 名前:名無しさん@お腹いっぱい。[sage] 投稿日:03/02/03 04:44
> わしづかみくん→denylist.txtの生成
> http://2ch.dyndns.org/~2ch/washi.pl
> わしづかみたん→.htaccessの生成
> http://pc.2ch.net/washi001.txt
http://pc.2ch.net/test/read.cgi/unix/1044210109/428
http://pc.2ch.net/test/read.cgi/unix/1044210109/444
637未承諾広告※ ◆TWARamEjuA
04/06/01 07:44ID:NJncyNgK04/06/01 08:00ID:oQE2mwC1
とも子
かおり
かおり
639動け動けウゴウゴ2ちゃんねる
04/06/01 18:04ID:2e7cDVLX 210.160.72.146もう巡回しないので規制解除してください
04/06/01 19:23ID:xs48GZYZ
>>639
fusianasanしてもう一度書いた方が良いよ。
fusianasanしてもう一度書いた方が良いよ。
641MoonWolf
04/06/01 19:40ID:2e7cDVLX ネットマスクで規制されてるから携帯からしか書けない
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- フジ社長会見で「答えられない」が約50回 ほぼ全ての質問に具体的な説明なし [シコリアン★]
- 【フジ会見】港社長 女子アナ“上納”飲み会報道に「性的接待、全くないと私は信じております」★4 [Ailuropoda melanoleuca★]
- 中居トラブル フジテレビ親会社フジ・メディアホールディングスが声明「客観性をもって事実の調査及び検証を行うよう要請」 [muffin★]
- 元フジ渡邊渚さん、フォトエッセイグラビア挑戦で「PTSDの人間がグラビアをやれるわけがない」など一部の心無い声に反論 [muffin★]
- ティムコの24年11月期、3期ぶり最終赤字 釣り需要減る [少考さん★]
- フジテレビ 宮司愛海アナ、中居&フジ問題で複雑胸中「傷ついている仲間が多くいます」 会社へ「真摯に公表してほしい」★2 [阿弥陀ヶ峰★]
- 米、2月から2000円値上げ… [667744927]
- 🏡🌸とうすこに出会えて良かった🦿~👌💕★3
- ホロライブに出会えて良かった~😊😊😊😊😗💕★4
- 【画像】今のイケメンの顔の分類wwwwwwwwwwwwwwwwwwwwwwww [834922174]
- 【速報】男磨きのプロたちの最新の見解、「モテるために筋トレの重要性は低い」で一致するwwwwwwwww [308389511]
- 食料品の値上げっていい加減対策しないと餓死者出るよな。 [971283288]