- - PR -
大容量データのダウンロードを実現するソリューション
1
| 投稿者 | 投稿内容 | ||||
|---|---|---|---|---|---|
|
投稿日時: 2004-06-30 16:03
いつもお世話になっております
現在Webサーバーからクライアントマシンに数Gという大容量のデータをダウンロードする際のソリューションはどのようなものがあるか調査しています。 データをやりとりする方法としてはHTTPや、FTP、HTTPSなどがあると思うのですが、大容量のデータのやりとりをする際に、一般的にはどのような方法が使われているか知りたいので、ご存知のかたがいらっしゃいましたらお教え願います。 | ||||
|
投稿日時: 2004-06-30 22:11
一般的な話ですと、圧縮して送るぐらいじゃないですかね。
回線速度上げるとか多重回線にするとか、設備増強という手もあります。 また、動画配信などの場合、正式名称は知りませんが前のコマとの差分のみ配信するとか技術的に解決する手もあります。 | ||||
|
投稿日時: 2004-07-01 14:35
早い回答ありがとうございます やはり一般的には圧縮して送る方法が多いんですね 書き忘れてしまったのですが、Webサーバー(Apache)から、数Gの圧縮ファイルを送る方法を調査しています。 HTTP、FTPはどちらも転送速度的には変わらないのでしょうか? よろしかったらご教授願います。 | ||||
|
投稿日時: 2004-07-01 15:07
新規に転送は圧縮で
すでにあるものの一部更新では ソースのリポジトリとか、 DBのデータ同期では差分です。 プッシュ配信ならマリンバ・カスタネット(古い!) 今なら、CurlとかNexawebのリッチクライアントも 差分を処理するようです。 WindowsUpdateやrpmなどのupdateも差分と言えなくもない。 http://web.yl.is.s.u-tokyo.ac.jp/surveyBBS2/ocamlbbs.cgi メモリのどのブロックが0だとかをユーザが指定をすると, 無駄な転送が省かれる これによって,320MB-RAN/1.6GB-disk Linux のVMのコピーを160秒(2回目以降は25秒で 行なうことができた. | ||||
|
投稿日時: 2004-07-01 22:58
単純にhttpとftpを比べるだけであれば、ftpの方が速いでしょうね。
けどその前に、なにがしたいのかしりませんが、http or ftp しか選択肢がないのですか? | ||||
1
