e日記風 独り言

#気まぐれ & 気まま & 天邪鬼な老いぼれ技術屋の日々の記録のうち、主に Perl・CGI・HTMLなど Web技術に関連した記事です。
右端上端の同一カテゴリージャンプボタンで同じカテゴリーの他の記事を順番にご覧いただけます。
Access Counter:  総アクセス数

楽 天 の 商 品

-2289- ホームページのダウンロード(コピー)
= 今日は画像なし m(_ _)m =
いつもの通りの狭い話になるが、しばらく前に古い知人からその知人が関連している任意団体のホームページの管理人が続けられなくなったけれど、引受先に心当たりがないか?と相談が来た。話からするとその任意団体に所属する管理人が自身で立ち上げて管理しているサイトのようだ。私も自分でやる以外あまり詳しくはないので、その程度ならフリーランスのマッチングサイトで個人のフリーランスの人でも探せば?と軽く返したところ、「やってくれないか?」と直球!が返ってきた。相談されたURLのソースをざっと見たところ、どうやら同輩のような好き者が作ったページらしく、古いツールで結構複雑な構造だった。しかも知人の話では何故か元の管理人からはサーバーのログインに必要な IDやパスワードは教えてもらえない様子。つまり htmlのように外から見えるページは何とかなるとして、cgiのようなバックで動くスクリプトのたぐいは利用・編集できない可能性が高い。
最初に相談が来たときから知人の裏の意図を薄々は感づいていたものの、何となく引き継ぎがスンナリ行きそうな気配が感じられず、今更仕事に縛られるのも気が進まず、のらりくらりとなるべくならかわそうとしたが結局深みに引きずり込まれてしまってとりあえず見積もりを出すという流れになってしまった。
そこで、20年くらい前にたまに使っていたホームページの丸ごとコピーツールを思い出しながら、いくつかを試してみたが対象のサイトは<frame>を使っていて、その先が保存できないなど簡単にはコピーができそうにない。
そこでネット上の情報だし perlなどの Web系の言語なら自分でも比較的簡単に自動で取得できるプログラムが書けるのではないかと思って調べ始めた。結果 100行ほどで基本的な htmlページコードの保存と、その中で表示している画像ファイルなどを保存するスクリプトが比較的簡単に書けてしまった(私にしては非常に珍しい!)。
後はターゲットのページに埋め込まれたリンク先のページを読み込んでサイトを丸ごとフォルダ毎に保存する再帰処理を追加すること。
色々やっても、結果的に依頼が来るかどうかは不明だが、好き者でつい突っ込んでしまう困った性格だ。
2023/06/11


このページ(pdiary_2289.html)にコメント/質問をどうぞ
タイトル(30文字以内)
コメント
お名前(ID:10文字以内)
URL(HP or ブログをお持ちの方)
パスワード*
タイトル・コメント・ID は必須です
このページ(pdiary_2289.html)への今までのコメント/質問
このページにはまだ表示できる投稿がありません。

Back to Page top