中村和志@神戸です。

In article <uy8ehy2c9.fsf@katsu.watanabe.name>
katsu@watanabe.name writes:
>make にかかる時間は、50時間だったか、70時間だったか。
>記事数は40万本だけなのに。秒あたり2〜3記事程度しか
>処理できていません。私が悪い。対象が画像や動画な
>わけでもなく、しかも記事の長さって、せいぜい
>  http://katsu.watanabe.name/article/220.txt
>上のような感じなんですよ。

これ、私も(多分)同じ問題にぶち当たりました。
1つのディレクトリの中に何万、何十万とファイルが有ると、
ディレクトリエントリを探索するのにえらく時間が掛かる
ようになってしまいます。最近のFreeBSDなんかでは、
ディレクトリエントリの探索に線形探索ではなく、DIRHASH
が使えるようになってますが、代わりにメモリの消費が増えます。
そんなわけで、QUEENに習ってウチも1ヶ月単位でtar+gz
で固めて保存してます。
ただ、それを手作業でやっているので、面倒臭くて…。
disk fullになって記事が欠落しないように残しておくのが精一杯
で、なかなかマージして整理するまで手が回りません。

inn自体に、time-hashからもう一歩進んで、1ヶ月とかの単位で
hashed-historyだけでなく、spoolも分けて保存できるように
してもらえないですかね?CD-R等にbackupするのが容易なように。
>>JH5GHM 近藤さん

-- 
中村和志@神戸         @mailto:kaz@kobe1995.net@
NAKAMURA Kazushi@KOBE   @http://kobe1995.net/@
- Break the hate chain. No more kill!
administrator@[127.1]