河野真治 @ 琉球大学情報工学です。

In article <uhdhby8f8.fsf@katsu.watanabe.name>, WATANABE Katsuhiro <katsu@watanabe.name> writes
> はできても、restore ができません。restore が進むうち、
> プロセスが肥大していって、仮想記憶空間関係の資源を食い
> つぶすらして異常終了してしまいます。

たぶん、file owner/permisson をon memoryで持っているんじゃな
いかと。外に出すrestore の実装もあったと思うんですけど。
ということは、

    Swap 多めに取ればいいんじゃない?

> gdbm を使ったのデータベースも、事実上作成できません。数が
> 数十万になるあたりからファイルのアクセスばかりになって、
> insert 処理が進まなくなってしまいます。単純な key value
> ペアだけのために、RDB を使うべきかどうなのか。

いや、まさにそういうものに使うべきなんですが....

hash だと、rehash されちゃうと破綻します。最初にhashの
大きさを指定できれば良いんですけどね。

> 大量のデータを扱うために数に対して(線形に)scale する
> プログラムを書くためには、何かを中間的に記憶していくような
> 戦略は向かないんだなと感じます。

ですね。

> でも7桁=百万単位程度で色々問題が起きるのは、現在のバランス
> からは、何か限界が低いかなあ。

うん。

---
Shinji KONO @ Information Engineering, University of the Ryukyus
河野真治 @ 琉球大学工学部情報工学科