@syarin それだと微妙に横長
@syarin そこは時間比で計算していただかなければならない。720×480という数値はD1規格由来で、こいつは13.5MHzで映像をサンプリングしている。従って1フレームあたり (13.5×10^6÷30×1001÷1000=) 450 450点のサンプルとなり、走査線1本あたりでは858点となる。ここまではいいかい?
@hadsn はい。
@syarin この858点/本という標本化点は水平同期期間などの映像が含まれていない物も含まれる。走査線1本の表示時間は (1÷30×1001÷1000÷525=) 63.6usとなるが、水平同期期間は10.9usとなるため、実際に画像が含まれるのは (858÷63.6×(63.6-10.9)=) 711点となる。ここまでも大丈夫かい?
@hadsn うん、とりあえず続けてください。
@syarin (ここは、じゃあ704×480じゃなくて、711×480じゃないの?と聞くところやで)
@hadsn それって横の端っこのほうがどうしてもブラウン管だと映らないから、とかじゃ…。
@syarin 実際それに近い。さてここでD1で標本化・量子化する前の映像信号に立ち返って考えてみよう。で、僕はいつ縦の有効走査線本数が480本と言った? 実は元の映像信号では485本に映像が含まれていることとなっている。一方D1で映像として標本化されるのはわずか480本だ。従って、正方ピクセルの画像は (711÷486×480=) 704ピクセルに伸縮しなければならないというわけである
@hadsn 下記のサイトも見てた。
それを見ると「そんなこまけぇことはいいんだよ!(テキスト検索で探してね)」って方法で編集してたみたい。
その設定を前提に、ソフトの推奨設定が作られてた…かもしれない。
ただの自分の映像だから、およそ2%のズレは、当時は気にならなかったみたいですね()
http://watersky.jp/memo/wiki.cgi?page=Video_resize
@hadsn えー、絶対に伸びてなかったよ!w 何してたか、過程をあんまり覚えてない、、、