入間基地の航空祭 ブルーインパルスを見に行く [カメラ]
入間基地の航空祭に行ってきた。
本日は、快晴に恵まれ、航空ショーにはぴったりな天気となった。
毎年「文化の日」に行われる、2012年も11月3日。そう、本日、航空祭が行われた。
メイン会場に行くのは、やたら混雑しているので、パス。
西武新宿線の狭山市の駅から、歩いて入間基地に向かう。
お目当ては、ブルーインパルスである。なので、所沢で昼飯を食べて、狭山市に着いたのは、13:00くらい。
駅から歩いていくうちに、Fなんとかの戦闘機が飛んでいる。かなりの爆音に驚く。
滑走路はずれの、小道に陣取った。こんな所である。
ブルーインパルスの飛行予定は、14:30くらいから。だが、いっこうに飛ぶ気配がない。
メイン会場には、アナウンスがあるのだろう、しかしここは、滑走路の外れ。けっこうな観客がいるが、みな、飛ばないなぁ...とつぶやいている。
待っていると、きました。
きた
きたー
きたーーーーーあ
とあっという間に飛び去った。
実は、去年も見に来た。なので、なんとなくそのスピードは把握している。最初にみたときは、かなりのスピードっていう印象であった。今年は、正面から見ているので、かなり追いかけやすい。ちょっとは学習している。
ブルーインパルスの演目は、毎年だいたい同じだが、これをみると、なんだか「スカッとした」気分になる。飛行機のスピード、音、操縦テクニック。見たことがない方は、ぜひ、体験してみて欲しい。なかなか楽しめますよ。
なにせ、間近に飛行機が飛んでいるところなんて、見れないでしょ。しかも普通に飛んでいるのじゃなくて、曲芸的に飛んでいるのですよ。
これなんか、4機並んで、背面飛行ですよ。
楽しかった。
サイト内を検索
本日は、快晴に恵まれ、航空ショーにはぴったりな天気となった。
毎年「文化の日」に行われる、2012年も11月3日。そう、本日、航空祭が行われた。
メイン会場に行くのは、やたら混雑しているので、パス。
西武新宿線の狭山市の駅から、歩いて入間基地に向かう。
お目当ては、ブルーインパルスである。なので、所沢で昼飯を食べて、狭山市に着いたのは、13:00くらい。
駅から歩いていくうちに、Fなんとかの戦闘機が飛んでいる。かなりの爆音に驚く。
滑走路はずれの、小道に陣取った。こんな所である。
ブルーインパルスの飛行予定は、14:30くらいから。だが、いっこうに飛ぶ気配がない。
メイン会場には、アナウンスがあるのだろう、しかしここは、滑走路の外れ。けっこうな観客がいるが、みな、飛ばないなぁ...とつぶやいている。
待っていると、きました。
きた
きたー
きたーーーーーあ
とあっという間に飛び去った。
実は、去年も見に来た。なので、なんとなくそのスピードは把握している。最初にみたときは、かなりのスピードっていう印象であった。今年は、正面から見ているので、かなり追いかけやすい。ちょっとは学習している。
ブルーインパルスの演目は、毎年だいたい同じだが、これをみると、なんだか「スカッとした」気分になる。飛行機のスピード、音、操縦テクニック。見たことがない方は、ぜひ、体験してみて欲しい。なかなか楽しめますよ。
なにせ、間近に飛行機が飛んでいるところなんて、見れないでしょ。しかも普通に飛んでいるのじゃなくて、曲芸的に飛んでいるのですよ。
これなんか、4機並んで、背面飛行ですよ。
楽しかった。
サイト内を検索
金環日食をピンホールカメラでみてみた [カメラ]
なんといっても本日の話題は金環日食でしょう。みれましたよ。金環日食。といっても日食グラスなんて準備していなかったので、朝から少々大変な感じ。
日食グラスの代替となるサングラスや、黒の下敷きもなかったので、どうしようかと思ったが、ピンホールカメラの原理でいけるんじゃないかと、日本酒の空きパックで作ってみた。
底の部分にごく小さな穴を開けた。もう一方の底は、切り取ってしまっているので、紙を付けた。覗き窓を作って、三脚に固定。
太陽の方向に向けると...
ほら、写った。ピンホールだから、像は逆。テレビでも同じように欠けてきたが、欠けている部分が逆。
金環な状態になると、ちゃんと円になってみえた。が、写真にはうまく撮れなかった。ピンボケ状態。
直接撮ってみようとしたが、だめ。オートフォーカスは効かないし、露出もだめ。
こんな感じの写真ばかり。
あー、こんなことなら、日食グラスを用意しておくんだった。
まぁ、直接は見れなかったが雰囲気は体験できた。ほんの十数分の間に、辺りが暗くなり、温度が下がっていくのはめったにない体験であった。これで十分である。
うーん、でもなんか悔しいなぁ。AREarthroidで月の位置もシミュレーションしてエアな感じで日食を体験してしまうか...
サイト内を検索
日食グラスの代替となるサングラスや、黒の下敷きもなかったので、どうしようかと思ったが、ピンホールカメラの原理でいけるんじゃないかと、日本酒の空きパックで作ってみた。
底の部分にごく小さな穴を開けた。もう一方の底は、切り取ってしまっているので、紙を付けた。覗き窓を作って、三脚に固定。
太陽の方向に向けると...
ほら、写った。ピンホールだから、像は逆。テレビでも同じように欠けてきたが、欠けている部分が逆。
金環な状態になると、ちゃんと円になってみえた。が、写真にはうまく撮れなかった。ピンボケ状態。
直接撮ってみようとしたが、だめ。オートフォーカスは効かないし、露出もだめ。
こんな感じの写真ばかり。
あー、こんなことなら、日食グラスを用意しておくんだった。
まぁ、直接は見れなかったが雰囲気は体験できた。ほんの十数分の間に、辺りが暗くなり、温度が下がっていくのはめったにない体験であった。これで十分である。
うーん、でもなんか悔しいなぁ。AREarthroidで月の位置もシミュレーションしてエアな感じで日食を体験してしまうか...
サイト内を検索
スマホ画面の撮影 [カメラ]
本日は、久しぶりにカメラの話題である。
ご承知のように、androidアプリ作成に、没頭していてカメラの話題は、既に過去ものとなっているが、ここいらで復活させてみようと思う。しかし、ネタ的にはandroidである。
androidアプリを紹介すべく、画面のキャプチャーをブログに貼ってきた。静止画なら画像でよいが、OpenGLで3Dアニメーションさせているのなら、動画で紹介したい。
既に、Youtubeに載せているように、screen castを使って動画キャプチャをすることには成功している。screen castについては、以下を参照。
http://code.google.com/p/androidscreencast/
だが、screen castでは、動画が「カクカク」している。2fpsくらいしか出てないかも。screen castはandroid SDKのadb経由で画面を連続してキャプチャーして動画にしているので、「2fpsくらいがいいとこ」らしい。
他に、HDMIでキャプチャする、という方法もあるらしいが、これは試していない。
screen castで動画キャプチャーする前には、デジカメや携帯で普通に「ビデオ撮影」してみたのではあるが、どれもいまいち。まず、ピントが合わない。液晶画面にピントを合わせるのって、そんなに大変なのか?。ちなみに、前の記事のXperiaの画像は、Nikon D3000で撮影したもの。D3000は動画撮影の機能がないので、残念ながら動画は撮影できないが、静止画ならきれいに撮影できている。んー、D3000に動画撮影機能があれば...
さらに、カメラを手持ちで撮るとどうしても画面がブレてしまう。三脚にデジカメを固定して撮影してみたが、基本、ピントが合わないので、ぼやけた感じになってしまう。
ピントが合わないのは、正面を向いていないからか?でも正面にすると、テカテカ液晶の画面にカメラが写り込んでしまうのよね... これってカッコ悪い。
で、しょうがないので、OpenGLの記事は、screen castでキャプチャした動画(movファイル)をyoutubeにアップしている。関係ないが、youtubeにアップするとき、「ブレを検出しました。修正しますか?」といったメッセージをよく読まずに、OKしたので、ブレ補正が効いている動画がひとつだけある。
なんで、画面がずれているんだ?と思ったが、これが原因っぽい。youtubeも進化しているのだなぁ...
しかし、フレームレートが足りない動画を補正してくれるわけではないので、あいかわらず、カクカクした動画になってしまった。本当はもっとスムーズに動いているんだけどねぇ。紹介できないのが残念ではある。
なにかよい、スマホ画面の動画撮影方法をあみださなくては。
昨日話題になった「Xperiaで地球がぐるぐる回り過ぎる」のは、余計なセンサーから情報を取得しているためだった。Xperiaには、TYPE_ORIENTATIONのセンサーがふたつあり、なんか、生データを送ってきている。生データの単位が「度」じゃないので、なんかおかしなことになっていたらしい。バッファオーバーランではなかった。
TYPE_ORIENTAIONから値を取ってくるのは「レガシー」みたいなので、変更することにした。しかし、レガシーって、androidが世に出回ってきたのって「つい最近」でしょ。それでレガシーって。いったい。オジサンはついていけないのである。
サイト内を検索
ご承知のように、androidアプリ作成に、没頭していてカメラの話題は、既に過去ものとなっているが、ここいらで復活させてみようと思う。しかし、ネタ的にはandroidである。
androidアプリを紹介すべく、画面のキャプチャーをブログに貼ってきた。静止画なら画像でよいが、OpenGLで3Dアニメーションさせているのなら、動画で紹介したい。
既に、Youtubeに載せているように、screen castを使って動画キャプチャをすることには成功している。screen castについては、以下を参照。
http://code.google.com/p/androidscreencast/
だが、screen castでは、動画が「カクカク」している。2fpsくらいしか出てないかも。screen castはandroid SDKのadb経由で画面を連続してキャプチャーして動画にしているので、「2fpsくらいがいいとこ」らしい。
他に、HDMIでキャプチャする、という方法もあるらしいが、これは試していない。
screen castで動画キャプチャーする前には、デジカメや携帯で普通に「ビデオ撮影」してみたのではあるが、どれもいまいち。まず、ピントが合わない。液晶画面にピントを合わせるのって、そんなに大変なのか?。ちなみに、前の記事のXperiaの画像は、Nikon D3000で撮影したもの。D3000は動画撮影の機能がないので、残念ながら動画は撮影できないが、静止画ならきれいに撮影できている。んー、D3000に動画撮影機能があれば...
さらに、カメラを手持ちで撮るとどうしても画面がブレてしまう。三脚にデジカメを固定して撮影してみたが、基本、ピントが合わないので、ぼやけた感じになってしまう。
ピントが合わないのは、正面を向いていないからか?でも正面にすると、テカテカ液晶の画面にカメラが写り込んでしまうのよね... これってカッコ悪い。
で、しょうがないので、OpenGLの記事は、screen castでキャプチャした動画(movファイル)をyoutubeにアップしている。関係ないが、youtubeにアップするとき、「ブレを検出しました。修正しますか?」といったメッセージをよく読まずに、OKしたので、ブレ補正が効いている動画がひとつだけある。
なんで、画面がずれているんだ?と思ったが、これが原因っぽい。youtubeも進化しているのだなぁ...
しかし、フレームレートが足りない動画を補正してくれるわけではないので、あいかわらず、カクカクした動画になってしまった。本当はもっとスムーズに動いているんだけどねぇ。紹介できないのが残念ではある。
なにかよい、スマホ画面の動画撮影方法をあみださなくては。
昨日話題になった「Xperiaで地球がぐるぐる回り過ぎる」のは、余計なセンサーから情報を取得しているためだった。Xperiaには、TYPE_ORIENTATIONのセンサーがふたつあり、なんか、生データを送ってきている。生データの単位が「度」じゃないので、なんかおかしなことになっていたらしい。バッファオーバーランではなかった。
TYPE_ORIENTAIONから値を取ってくるのは「レガシー」みたいなので、変更することにした。しかし、レガシーって、androidが世に出回ってきたのって「つい最近」でしょ。それでレガシーって。いったい。オジサンはついていけないのである。
サイト内を検索
写真の印刷 その3 昇華型プリンタ [カメラ]
先日から、レーザープリンタでの写真の印刷に納得がいかず、いろいろ試してみている。
プリンタの設定を変えて印刷したり、減色してみたりしたが、やはりきれいには印刷できない。
弟が持っている、インクジェット(Canon MP950)で同じ画像を印刷して比べてみると。そんなに変わらないではないか。発色の違いこそあれ、なんか「ぶつぶつ」っていう感じがある。MP950の解像度は9600dpi。インクは6色。
これは、最新式のインクジェットプリンタにしても、そんなに変わらないな。と思った。
デジカメプリントに出すときれいに印刷できる。まぁ、プロが高い機材を使って印刷するのだから当たり前か。しかし、どうやって印刷しているのか気になり調べて見ると、どうも家庭やオフィスで使われている一般的なレーザー、インクジェットプリンタとはしくみが違うプリンタを使っている。
レーザー、インクジェットでは、ディザで色を作り出していた。
デジカメプリントで使われるプリンタは、印画紙に光を当てて現像する、っていう昔ながらの方法で印刷しているらしい。
アナログ時代の写真は、写真屋さんにフィルムを現像してもらっていた。写真になるまでには、大きくふたつの工程がある。
最初に、フィルムを現像する。
次に、フィルムから印画紙に現像する。
フィルムから印画紙に現像する、っていう部分をデジタルデータを光に変えて、印画紙に照らして感光させ、現像しているといったイメージ。実際は、レーザーを照射して感光させているみたい。
レーザー、インクジェットで写真がきれいじゃないのは、ディザのせい。これを解像度を上げることで、なんとかきれいになるように頑張っているのではあるが、「なんかぶつぶつ」な感じが解消できない。
昇華型プリンタ
写真をきれいに印刷できる、フォトプリンタなるものを発見。
http://cweb.canon.jp/cpp/lineup/cp800/index.html
このプリンタ、昇華型プリンタと呼ばれている。インクジェットでもレーザーでもない。なにやら、熱でインクリボンを気化させて印刷するらしい。昇華型でも使われるインクは、YMCの3原色。一度気化することで、3原色がいい感じにまざり、中間色が作られる。ディザは使われない。従って、解像度は、300dpiとインクジェット、レーザーよりも低い。
写真をきれいに印刷するのなら、インクジェットよりも、昇華型の方が有利。なにせディザを使わないのだから。
しかも、安いのですよ。インクジェットよりも安い。
ただし、用紙が専用のものになる(用紙とインクがセットになってカートリッジになっている)。サイズはハガキが最大。A4の普通紙に印刷することはできない。
EPSONにもE-350っていうのがあるが、こっちはどうもインクジェット?
ものは試しに買ってみようかなぁ... CP800 PCデポに売ってるかなぁ...
サイト内を検索
プリンタの設定を変えて印刷したり、減色してみたりしたが、やはりきれいには印刷できない。
弟が持っている、インクジェット(Canon MP950)で同じ画像を印刷して比べてみると。そんなに変わらないではないか。発色の違いこそあれ、なんか「ぶつぶつ」っていう感じがある。MP950の解像度は9600dpi。インクは6色。
これは、最新式のインクジェットプリンタにしても、そんなに変わらないな。と思った。
デジカメプリントに出すときれいに印刷できる。まぁ、プロが高い機材を使って印刷するのだから当たり前か。しかし、どうやって印刷しているのか気になり調べて見ると、どうも家庭やオフィスで使われている一般的なレーザー、インクジェットプリンタとはしくみが違うプリンタを使っている。
レーザー、インクジェットでは、ディザで色を作り出していた。
デジカメプリントで使われるプリンタは、印画紙に光を当てて現像する、っていう昔ながらの方法で印刷しているらしい。
アナログ時代の写真は、写真屋さんにフィルムを現像してもらっていた。写真になるまでには、大きくふたつの工程がある。
最初に、フィルムを現像する。
次に、フィルムから印画紙に現像する。
フィルムから印画紙に現像する、っていう部分をデジタルデータを光に変えて、印画紙に照らして感光させ、現像しているといったイメージ。実際は、レーザーを照射して感光させているみたい。
レーザー、インクジェットで写真がきれいじゃないのは、ディザのせい。これを解像度を上げることで、なんとかきれいになるように頑張っているのではあるが、「なんかぶつぶつ」な感じが解消できない。
昇華型プリンタ
写真をきれいに印刷できる、フォトプリンタなるものを発見。
http://cweb.canon.jp/cpp/lineup/cp800/index.html
このプリンタ、昇華型プリンタと呼ばれている。インクジェットでもレーザーでもない。なにやら、熱でインクリボンを気化させて印刷するらしい。昇華型でも使われるインクは、YMCの3原色。一度気化することで、3原色がいい感じにまざり、中間色が作られる。ディザは使われない。従って、解像度は、300dpiとインクジェット、レーザーよりも低い。
写真をきれいに印刷するのなら、インクジェットよりも、昇華型の方が有利。なにせディザを使わないのだから。
しかも、安いのですよ。インクジェットよりも安い。
ただし、用紙が専用のものになる(用紙とインクがセットになってカートリッジになっている)。サイズはハガキが最大。A4の普通紙に印刷することはできない。
EPSONにもE-350っていうのがあるが、こっちはどうもインクジェット?
ものは試しに買ってみようかなぁ... CP800 PCデポに売ってるかなぁ...
サイト内を検索
写真の印刷 その2 レーザー vs インクジェット [カメラ]
さて、前回、「ディザ」という技術を使って、プリンタは色を作っている、という話をした。モニタが100dpiであるのに対して、プリンタは2400dpiもの解像度を持っているのに、写真がきれいにみえないのは、色の作り方が違うから、ということになる。
モニタの1ドットは、それだけで色を変化させることができる。ドット=解像度ということになっているので、100dpiであれば、1インチの中に100個のドットが存在していることになる。
プリンタの場合、解像度は2400dpiあるものの、各要素には1種類のトナーまたはインクしかくっつけることができない。写真のように色が沢山使われている絵を印刷しようとおもったら、多くの色を作り出さなければならない。色を作り出すためにディザを使うことになる。結果、2400dpiの解像度がそのまま画像の解像度にはならない。
多くの色を作り出すために、一番手っ取り早いのは、解像度を上げること。混ぜ合わさっている感じがより細かければ、細かいほど、自然な感じで多くの色を作り出すことができる。解像度が荒いと、ディザが目立つようになる。
解像度はそのままでも、トナー、インクの色の種類を増やすことで多くの色を作り出すことが可能になる。
本題であった、「なぜインクジェットの方がきれいなのか?」という疑問に答えていくことにしよう。
まず、解像度。レーザープリンタはトナーをくっつけることで印刷をしている。一方、インクジェットは、インクをくっつけている。印刷に使う原料が違う。
トナーは、粉で固体。インクは色が付いた液体。粒子としては液体の方が小さいので、解像度を上げるにはインクの方が有利。
最近では、どちらも9600dpi程度まで上がってきている。しかし、レーザープリンタの方は、最大9600dpiとか、9600dpi相当っていう怪しげなスペックになっているが...
次に、色の種類。レーザープリンタは簡単に色数を増やすことはできない。ただでさえ、4本ものカートリッジがありじゃまくさいのに、8本ものカートリッジがあったら、大きさも今の倍にはなるし、コストはかかるし、故障する頻度も高くなる。
インクジェットなら、色数を増やすのは、レーザーよりは簡単。
現に、カラーレーザーの色数は、4。インクジェットは4~10。
ということで、色数が多い写真を印刷するには、インクジェットの方が解像度を上げやすいし、インクの色数が多いので有利っていうことみたい。
誤差拡散法
実は、インクジェットとレーザーでは解像度、色数の他にディザの手法が異なっている(らしい)。インクジェットは、「誤差拡散法」っていうディザリングを行っている。レーザーは、「パターンディザ」といったディザリングを行う。
うー、なんか難しくなってきたぞ。頭が痛いかも。
どちらも少ない色数で多くの色を表現するために、色の混ぜ具合を計算する方法、っていうことはわかったが、詳細については、難し過ぎて簡単には理解できなかった。
誤差拡散法の方が、モアレが出にくいっていうことがなんとなくわかった。
レーザーで写真を印刷したときに、「なんか、スジが入っている?」っていうことがあるでしょ。それが「モアレ」。干渉縞っていうやつですね。原理はよくわからないが、縞模様のシャツを着ている人がテレビに映ると、変な模様になってみえちゃうっていう現象と同じ。
誤差拡散法でディザリングすると、単純なパターンにあてはめるのではなく、周囲の画素に誤差を拡散させる、っていう方法でモアレが発生しないようにしている。わかったような、わからないような。
レーザーでも誤差拡散法を使えばいいような気はするが、構造的に難しかったりするのだろうか。ブラザーのサイトで仕様をみてきたが、ディザリングの手法については書かれていない。
印刷時のプロパティにも、そんな設定はみあたらなかった。
MFC9460CDNでも誤差拡散法でやっている雰囲気はあるのではあるが、どうも横に入るスジが気になるのよねぇ。遠目で見れば気にならない程度なんだけど。まぁ、そういうものなんだろう。
サイト内を検索
モニタの1ドットは、それだけで色を変化させることができる。ドット=解像度ということになっているので、100dpiであれば、1インチの中に100個のドットが存在していることになる。
プリンタの場合、解像度は2400dpiあるものの、各要素には1種類のトナーまたはインクしかくっつけることができない。写真のように色が沢山使われている絵を印刷しようとおもったら、多くの色を作り出さなければならない。色を作り出すためにディザを使うことになる。結果、2400dpiの解像度がそのまま画像の解像度にはならない。
多くの色を作り出すために、一番手っ取り早いのは、解像度を上げること。混ぜ合わさっている感じがより細かければ、細かいほど、自然な感じで多くの色を作り出すことができる。解像度が荒いと、ディザが目立つようになる。
解像度はそのままでも、トナー、インクの色の種類を増やすことで多くの色を作り出すことが可能になる。
本題であった、「なぜインクジェットの方がきれいなのか?」という疑問に答えていくことにしよう。
まず、解像度。レーザープリンタはトナーをくっつけることで印刷をしている。一方、インクジェットは、インクをくっつけている。印刷に使う原料が違う。
トナーは、粉で固体。インクは色が付いた液体。粒子としては液体の方が小さいので、解像度を上げるにはインクの方が有利。
最近では、どちらも9600dpi程度まで上がってきている。しかし、レーザープリンタの方は、最大9600dpiとか、9600dpi相当っていう怪しげなスペックになっているが...
次に、色の種類。レーザープリンタは簡単に色数を増やすことはできない。ただでさえ、4本ものカートリッジがありじゃまくさいのに、8本ものカートリッジがあったら、大きさも今の倍にはなるし、コストはかかるし、故障する頻度も高くなる。
インクジェットなら、色数を増やすのは、レーザーよりは簡単。
現に、カラーレーザーの色数は、4。インクジェットは4~10。
ということで、色数が多い写真を印刷するには、インクジェットの方が解像度を上げやすいし、インクの色数が多いので有利っていうことみたい。
誤差拡散法
実は、インクジェットとレーザーでは解像度、色数の他にディザの手法が異なっている(らしい)。インクジェットは、「誤差拡散法」っていうディザリングを行っている。レーザーは、「パターンディザ」といったディザリングを行う。
うー、なんか難しくなってきたぞ。頭が痛いかも。
どちらも少ない色数で多くの色を表現するために、色の混ぜ具合を計算する方法、っていうことはわかったが、詳細については、難し過ぎて簡単には理解できなかった。
誤差拡散法の方が、モアレが出にくいっていうことがなんとなくわかった。
レーザーで写真を印刷したときに、「なんか、スジが入っている?」っていうことがあるでしょ。それが「モアレ」。干渉縞っていうやつですね。原理はよくわからないが、縞模様のシャツを着ている人がテレビに映ると、変な模様になってみえちゃうっていう現象と同じ。
誤差拡散法でディザリングすると、単純なパターンにあてはめるのではなく、周囲の画素に誤差を拡散させる、っていう方法でモアレが発生しないようにしている。わかったような、わからないような。
レーザーでも誤差拡散法を使えばいいような気はするが、構造的に難しかったりするのだろうか。ブラザーのサイトで仕様をみてきたが、ディザリングの手法については書かれていない。
印刷時のプロパティにも、そんな設定はみあたらなかった。
MFC9460CDNでも誤差拡散法でやっている雰囲気はあるのではあるが、どうも横に入るスジが気になるのよねぇ。遠目で見れば気にならない程度なんだけど。まぁ、そういうものなんだろう。
BROTHER A4カラーレーザー複合機 JUSTIO 24PPM/両面印刷/SuperG3 FAX/ADF/有線LAN MFC-9460CDN
- 出版社/メーカー: ブラザー工業
- メディア: Personal Computers
サイト内を検索
写真の印刷 プリンタのしくみについて考える [カメラ]
デジカメになってからというもの、写真を紙に印刷するっていう習慣がなくなった。PCに取り込んでおしまい。
だれかにあげるときは、プリントするが、あまりそういった機会がない。
この間、奥さんのリクエストで、レザープリンタで印刷してみた。なんかきれいじゃない。MFC-9460CDNの解像度は、「きれい」に設定すれば、2400dpi相当になるらしい。もちろん、印刷時に「きれい」に設定してある。
相当っていうのが怪しいが、これだけ解像度があれば、きれいに印刷できてもよさそうなものだが...
CanonのLBP5000の方がきれいな感じが... と思い、LBP5000の解像度を調べて見ると、9600dpi相当となっていた。おお、そうなのか。MFC-9460CDNはそんなに解像度が高くないのね。写真を印刷するためのものではなく、ビジネス文書用ってことか。
まぁ、そのように使っているので大きな問題はないわけではあるが、写真がきれいじゃない、っていうのはさみしい。
どうも、レザープリンタより、インクジェットの方が写真はきれいに印刷できるようである。インクジェットってインクがすぐになくなっちゃうし、遅いし、っていう理由で敬遠してきたのだが、これは購入しないといけないか。
年賀状を印刷する時期でもあるし...
と調べて見る。インクジェットプリンタの本体って、1万円で買えちゃうのね。インクの方が高くないか?まぁ、そういうものなんだろう。
やっぱり、CanonかEPSONなのね。Canonはピクサス、EPSONはカラリオか。
高品質で写真を印刷したいのなら、3万円くらいのを買った方がよさそう。
どうしてインクジェットの方がきれいなのか?
とここで、レザープリンタより、インクジェットの方が写真がきれいに印刷できる理由について、よーく考えて見ることにした。
まず、カラーレーザーの色数について。カラーレーザーには、イエロー、マゼンタ、シアンとブラックの4つのトナーが入っている(モノクロレザーは黒トナーだけ)。
色数としては、4でよいか。一方、最近のインクジェットプリンタには、インクが10色も入っている。
色数によるものなのか? もう少し考えて見よう。
ディスプレイモニタの場合は、3原色がRGBであったのに対して、プリンタの場合は、YMCが3原色になる。色の作り方の基本は、モニタであってもプリンタであっても同じ。3原色を混ぜ合わせて任意の色を作り出している。
ちなみに、RGBは「光の三原色」、YMCは「色材の三原色」と呼ばれる。
モニタの場合、ひとつのドットにRGBの素子があり、それぞれに対して、電気信号で発光具合を制御できる。フルカラーと呼ばれるようなモニタでは、RGBそれぞれで、256諧調あり、それを組み合わせることで16,777,216色を表現できる。
モニタの解像度は、100dpiくらい。モニタの大きさと解像度によりまちまち。
それに対して、プリンタは2400dpi。桁が違う。単に解像度だけなら、プリンタの方がきれいな画像を得ることができそう。
しかし、実際はモニタの方がきれい。なぜか?それは、色の作り方が違うから。
モニタは、電気信号によりドットに表示する色を変化させることができる。
プリンタの場合は、そういう技はできない。紙に電気信号を与えても発光したり、色が変化してくれるわけではない。プリンタの場合はあくまでも、紙にトナーなり、インクなりをくっつけていき、絵を作っていく。
話を簡単にするために、モノクロで考えて見る。単に文字を印刷するのであれば、黒い部分にトナーをくっ付けることで用は足りそう。くっつける、くっつけないは、ドラムに対して、電気信号を送れば制御できる。
モノクロでも写真のような絵を印刷することもできる。その場合、どうしてもグレーが必要。しかも、薄いグレー、や濃いグレー、はたまたもう少し濃いグレーといった感じで、いくつかの種類のグレーが必要になる。モノクロプリンタには黒のトナーしかない。どうやっているかというと、「ディザ」という技術を使う。
簡単にいうと、黒いトナーを間引いて印刷したら、グレーにみえるっていうことです。
上の■の集まりは、遠くからみたら、「黒」。
これは、グレーぽくないですか。遠くからみてね。
●がひとつのトナーの粒子だと思ってみれば、なおさらグレーにみえてくるでしょ?
みえない?じゃあ、10メートルくらい離れてみてみよう。そんなに部屋が広くないって、じゃあブラウザで10%くらいに縮小表示してみよう。
なるほど、グレーの作り方はわかった。じゃあ、カラーにしたらどうなるか。実は、カラーでも同じ。
モノクロの場合、白と黒を混ぜて、グレーを作り出したわけだが、カラーの場合は、3原色を混ぜてやればいいっていうこと。
イエローとシアンを混ぜると、グリーンになる。
やっぱりみえないって。じゃあ、10%に縮小してみたら...
おおー、緑になったではないか。
続くかも...
サイト内を検索
だれかにあげるときは、プリントするが、あまりそういった機会がない。
この間、奥さんのリクエストで、レザープリンタで印刷してみた。なんかきれいじゃない。MFC-9460CDNの解像度は、「きれい」に設定すれば、2400dpi相当になるらしい。もちろん、印刷時に「きれい」に設定してある。
相当っていうのが怪しいが、これだけ解像度があれば、きれいに印刷できてもよさそうなものだが...
CanonのLBP5000の方がきれいな感じが... と思い、LBP5000の解像度を調べて見ると、9600dpi相当となっていた。おお、そうなのか。MFC-9460CDNはそんなに解像度が高くないのね。写真を印刷するためのものではなく、ビジネス文書用ってことか。
まぁ、そのように使っているので大きな問題はないわけではあるが、写真がきれいじゃない、っていうのはさみしい。
どうも、レザープリンタより、インクジェットの方が写真はきれいに印刷できるようである。インクジェットってインクがすぐになくなっちゃうし、遅いし、っていう理由で敬遠してきたのだが、これは購入しないといけないか。
年賀状を印刷する時期でもあるし...
と調べて見る。インクジェットプリンタの本体って、1万円で買えちゃうのね。インクの方が高くないか?まぁ、そういうものなんだろう。
やっぱり、CanonかEPSONなのね。Canonはピクサス、EPSONはカラリオか。
高品質で写真を印刷したいのなら、3万円くらいのを買った方がよさそう。
Canon インクジェット複合機 PIXUS MG8230 光ナビUI 6色W黒インク フィルムスキャン対応CCD方式 有線・無線LAN搭載 サイレントモード搭載 ECO設定付 PIXUSMG8230
- 出版社/メーカー: キヤノン
- メディア: Personal Computers
どうしてインクジェットの方がきれいなのか?
とここで、レザープリンタより、インクジェットの方が写真がきれいに印刷できる理由について、よーく考えて見ることにした。
まず、カラーレーザーの色数について。カラーレーザーには、イエロー、マゼンタ、シアンとブラックの4つのトナーが入っている(モノクロレザーは黒トナーだけ)。
色数としては、4でよいか。一方、最近のインクジェットプリンタには、インクが10色も入っている。
色数によるものなのか? もう少し考えて見よう。
ディスプレイモニタの場合は、3原色がRGBであったのに対して、プリンタの場合は、YMCが3原色になる。色の作り方の基本は、モニタであってもプリンタであっても同じ。3原色を混ぜ合わせて任意の色を作り出している。
ちなみに、RGBは「光の三原色」、YMCは「色材の三原色」と呼ばれる。
モニタの場合、ひとつのドットにRGBの素子があり、それぞれに対して、電気信号で発光具合を制御できる。フルカラーと呼ばれるようなモニタでは、RGBそれぞれで、256諧調あり、それを組み合わせることで16,777,216色を表現できる。
モニタの解像度は、100dpiくらい。モニタの大きさと解像度によりまちまち。
それに対して、プリンタは2400dpi。桁が違う。単に解像度だけなら、プリンタの方がきれいな画像を得ることができそう。
しかし、実際はモニタの方がきれい。なぜか?それは、色の作り方が違うから。
モニタは、電気信号によりドットに表示する色を変化させることができる。
プリンタの場合は、そういう技はできない。紙に電気信号を与えても発光したり、色が変化してくれるわけではない。プリンタの場合はあくまでも、紙にトナーなり、インクなりをくっつけていき、絵を作っていく。
話を簡単にするために、モノクロで考えて見る。単に文字を印刷するのであれば、黒い部分にトナーをくっ付けることで用は足りそう。くっつける、くっつけないは、ドラムに対して、電気信号を送れば制御できる。
モノクロでも写真のような絵を印刷することもできる。その場合、どうしてもグレーが必要。しかも、薄いグレー、や濃いグレー、はたまたもう少し濃いグレーといった感じで、いくつかの種類のグレーが必要になる。モノクロプリンタには黒のトナーしかない。どうやっているかというと、「ディザ」という技術を使う。
簡単にいうと、黒いトナーを間引いて印刷したら、グレーにみえるっていうことです。
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
■■■■■■■■■
上の■の集まりは、遠くからみたら、「黒」。
■ ■ ■ ■ ■
■ ■ ■ ■
■ ■ ■ ■ ■
■ ■ ■ ■
■ ■ ■ ■ ■
■ ■ ■ ■
■ ■ ■ ■ ■
■ ■ ■ ■
■ ■ ■ ■
■ ■ ■ ■ ■
■ ■ ■ ■
■ ■ ■ ■ ■
■ ■ ■ ■
■ ■ ■ ■ ■
■ ■ ■ ■
これは、グレーぽくないですか。遠くからみてね。
●がひとつのトナーの粒子だと思ってみれば、なおさらグレーにみえてくるでしょ?
みえない?じゃあ、10メートルくらい離れてみてみよう。そんなに部屋が広くないって、じゃあブラウザで10%くらいに縮小表示してみよう。
なるほど、グレーの作り方はわかった。じゃあ、カラーにしたらどうなるか。実は、カラーでも同じ。
モノクロの場合、白と黒を混ぜて、グレーを作り出したわけだが、カラーの場合は、3原色を混ぜてやればいいっていうこと。
■■■■■■■■
■■■■■■■■
■■■■■■■■
■■■■■■■■
■■■■■■■■
■■■■■■■■
■■■■■■■■
■■■■■■■■
■■■■■■■■
■■■■■■■■
■■■■■■■■
■■■■■■■■
■■■■■■■■
■■■■■■■■
■■■■■■■■
イエローとシアンを混ぜると、グリーンになる。
やっぱりみえないって。じゃあ、10%に縮小してみたら...
おおー、緑になったではないか。
続くかも...
サイト内を検索
iPhone4S au と AF-S DX Micro NIKKOR 40mm f/2.8G [カメラ]
onkyo remoteを動かすハードを持っていない、という話を前の記事で書いた。
しょうがないから、スマホかiPod買うか、ということになったのだが、ここに来てiPhoneがauから買えることが決定したらしい。
KDDからは情報がリークされて、フライング気味だったが、無事にアップルからの発表があったので、まちがいなく発売されるっぽい。
http://news.so-net.ne.jp/article/abstract/630219/
奥さんは、携帯持ってない。家にあるiPodは奥さんのもの。携帯は要らないが、スマホならiPod代わりになるので欲しい、とのこと。私はauのスマホじゃない携帯を使っている。
家族割り引きがあるので、スマホ買うのなら、auだよな。っていう話をしていた。
奥さんは、auのINFOBARなんてかっこいいじゃない。とか言っていた。
http://iida.jp/products/infobar/
が、おサイフケータイにならない、とか、バッテリーがもたない、とかの理由で購入するには至っていなかった。
ここにきて、iPhone4Sが、auから買えるっていう話が...
奥さんいわく「iPhoneの方がいい」とのこと。
理由は、「使い慣れている」とか、「iTunesがそのまま使える」とか、「かっこいい」とか。まぁいろいろ。
5じゃなくて4Sって微妙なバージョンアップは何っていう感じだが... felicaは使えるんだろうか。バッテリーの持ちは改善されているようではある。
多分、iPhone買うんだろうなぁ...
Nikonのマイクロレンズ
iPhoneの話は、さておき、久しぶりにカメラの話である。
マクロレンズが欲しい、でも高い、っていう話は過去にした(と思う)。
最近になって、お手頃なマクロレンズが出ているではないか(Amazonからのお勧め商品のメールで気付いた)。
AF-S DX Micro NIKKOR 40mm f/2.8G
NikonのWebサイト
http://www.nikon-image.com/products/lens/af/dx/singlefocal/af-s_dx_micro_40mmf28g.htm
定価は37,800円。まじで、こんな値段でいいの?と思ってしまう。安かろう悪かろうかも。慎重にスペックを確認していこう。
焦点距離は、40mmか。DXだから、35mm判換算すると、60mm。標準レンズくらいっていうことね。
F値は、2.8。むむ、やはり価格なりの性能か。35mm f/1.8G でも開放は使わないからなぁ。2.4くらいが多いか。開放2.8でも問題はないかも知れない。
さて、問題の最短撮影距離はというと...
AF-S DX Micro NIKKOR 40mm f/2.8G
最短撮影距離 0.163m(等倍)
AF-S DX NIKKOR 35mm f/1.8G
最短撮影距離 0.3m
おお、さすがにマクロレンズ。16cmくらいまで近づいてもOKなのね。35mm f/1.8Gと比較すると、その差は14cmくらいではある。しかし、10cmも近づければ、かなり違った絵になるはず。
(等倍)という表記もマクロレンズならでは。CCDに投影する像が実寸大となるような位置まで被写体に寄れる、っていうこと。
他のNIKKORレンズも等倍までだなぁ。なんで安いのかわかんなくなってきたぞ...
単にDXだからか。AF-S DX Micro NIKKOR 85mm f/3.5G ED VRは、7万円。EDレンズとVRで3.3万円なのか。
FXの方は、それなりに高い。Ai AF Micro-Nikkor 60mm f/2.8D は、6.3万円。
AF-S DX NIKKOR 35mm f/1.8G をベースにしてF値を上げた代わりに、最短撮影距離を短くしました、っていう理解でいいのか。
情報をあさっていると、みなさん35mm f/1.8Gも持っていて、マクロレンズも欲しくなって40mm f/2.8Gを購入している方が多いみたい。絶賛というわけではないが、悪い評価を付けているところはみかけなかった。
まぁ、値段がリーズナブルだからね。
これは、購入決定かも。
サイト内を検索
しょうがないから、スマホかiPod買うか、ということになったのだが、ここに来てiPhoneがauから買えることが決定したらしい。
KDDからは情報がリークされて、フライング気味だったが、無事にアップルからの発表があったので、まちがいなく発売されるっぽい。
http://news.so-net.ne.jp/article/abstract/630219/
奥さんは、携帯持ってない。家にあるiPodは奥さんのもの。携帯は要らないが、スマホならiPod代わりになるので欲しい、とのこと。私はauのスマホじゃない携帯を使っている。
家族割り引きがあるので、スマホ買うのなら、auだよな。っていう話をしていた。
奥さんは、auのINFOBARなんてかっこいいじゃない。とか言っていた。
http://iida.jp/products/infobar/
が、おサイフケータイにならない、とか、バッテリーがもたない、とかの理由で購入するには至っていなかった。
ここにきて、iPhone4Sが、auから買えるっていう話が...
奥さんいわく「iPhoneの方がいい」とのこと。
理由は、「使い慣れている」とか、「iTunesがそのまま使える」とか、「かっこいい」とか。まぁいろいろ。
5じゃなくて4Sって微妙なバージョンアップは何っていう感じだが... felicaは使えるんだろうか。バッテリーの持ちは改善されているようではある。
多分、iPhone買うんだろうなぁ...
Nikonのマイクロレンズ
iPhoneの話は、さておき、久しぶりにカメラの話である。
マクロレンズが欲しい、でも高い、っていう話は過去にした(と思う)。
最近になって、お手頃なマクロレンズが出ているではないか(Amazonからのお勧め商品のメールで気付いた)。
AF-S DX Micro NIKKOR 40mm f/2.8G
NikonのWebサイト
http://www.nikon-image.com/products/lens/af/dx/singlefocal/af-s_dx_micro_40mmf28g.htm
Nikon AF-S DX Micro NIKKOR 40mm f/2.8G AF-SDXMC40G
- 出版社/メーカー: ニコン
- メディア: エレクトロニクス
定価は37,800円。まじで、こんな値段でいいの?と思ってしまう。安かろう悪かろうかも。慎重にスペックを確認していこう。
焦点距離は、40mmか。DXだから、35mm判換算すると、60mm。標準レンズくらいっていうことね。
F値は、2.8。むむ、やはり価格なりの性能か。35mm f/1.8G でも開放は使わないからなぁ。2.4くらいが多いか。開放2.8でも問題はないかも知れない。
さて、問題の最短撮影距離はというと...
AF-S DX Micro NIKKOR 40mm f/2.8G
最短撮影距離 0.163m(等倍)
AF-S DX NIKKOR 35mm f/1.8G
最短撮影距離 0.3m
おお、さすがにマクロレンズ。16cmくらいまで近づいてもOKなのね。35mm f/1.8Gと比較すると、その差は14cmくらいではある。しかし、10cmも近づければ、かなり違った絵になるはず。
(等倍)という表記もマクロレンズならでは。CCDに投影する像が実寸大となるような位置まで被写体に寄れる、っていうこと。
他のNIKKORレンズも等倍までだなぁ。なんで安いのかわかんなくなってきたぞ...
単にDXだからか。AF-S DX Micro NIKKOR 85mm f/3.5G ED VRは、7万円。EDレンズとVRで3.3万円なのか。
FXの方は、それなりに高い。Ai AF Micro-Nikkor 60mm f/2.8D は、6.3万円。
AF-S DX NIKKOR 35mm f/1.8G をベースにしてF値を上げた代わりに、最短撮影距離を短くしました、っていう理解でいいのか。
情報をあさっていると、みなさん35mm f/1.8Gも持っていて、マクロレンズも欲しくなって40mm f/2.8Gを購入している方が多いみたい。絶賛というわけではないが、悪い評価を付けているところはみかけなかった。
まぁ、値段がリーズナブルだからね。
これは、購入決定かも。
サイト内を検索
カメラのしくみ 「RGBとYUV」RAWとJPEGの違い [カメラ]
震災前、HDDレコーダーを買ったので、動画におけるデジタル系の話が続いていた。震災後は、節電の話が主となってしまった。ここで、カメラに話を戻そうと思う。といっても、光学系ではなく、デジタル系。
イメージセンサーには、赤センサー、緑センサー、青センサーがあるっていう話をした。
イメージセンサーから収集したデータをそのまま(といってもヘッダは付けるが)、データファイルに記録したものが、RAWフォーマットの画像データ。
具体的なフォーマット、例えば、Rの成分を何ビットの情報として記録するのかは、イメージセンサによる。だって「生データ」だから。
関連記事
カメラのしくみ「イメージセンサ」
RAWフォーマットで記録された画像データは、01がたくさん並んでいるバイナリデータ。画像データは、シャッターを切った瞬間にSDカードに記録される。SDカードに記録された画像データをPCにデータ転送する。これをPCのディスプレイで画像を見ていることになる。
最終的に画像を目にするまでには、けっこういろんな「変換」が行われていることになる。変換が行われるたびに、元のデータとは微妙に違ってくる可能性がある。
おおざっぱに流れを追ってみよう。最初はアナログな情報である「光の強弱の具合」がイメージセンサによってデジタルデータに変換される。基本的にデジタルデータは転送しても劣化せずに、データを移動できる。紆余曲折あって、デジタルデータは最終的に出力装置で再現される。ディスプレイに表示する、とか、プリンタで印刷するとかね。これを人間が観賞している、っていうことになる。あくまでもおおざっぱですよ。
カメラで一瞬をとらえた画像が写真になるまで、けっこういろんなものが、間にはさまっているのである。
ここで、出力装置がプリンタで、モノクロレーザーだった場合を考えてみよう。当然、カメラで撮影した画像データはカラーである。白黒フィルムはあるが、白黒なデジタルカメラってあるのか?それは置いておいて、カラーの画像データを、モノクロのレーザープリンタで印刷したら、白黒で印刷された画像になる。
元々カラーなのに、白黒になっちゃうわけです。色の情報がロス(消失)している。
ちょっと古いPCのディスプレイでみたら、なんか「きれいじゃない」ってこともある。PCの能力で256色の色表現しかできない、っていうものもまだ現役で動いている(かも)。
ここでも情報がロスしている。
いろんなところで、「情報のロス」が発生する。それは装置の能力が決まっているので、しょうがないことなのである。
私は、RAWデータじゃなくてJPEGでSDカードに記録している。その方がたくさん入るし。PCのHDDに溜めておくときも小さい方がうれしい。JPEGの方が画像データの大きさが小さくなるから。しかしここでも情報のロスが生じている。
参考記事
カメラのしくみ「ノイズ」
YUV
ここで、やっと本題である。RAWフォーマットでは、赤、緑、青の各センサーから上がってきた数値をそのまま記録している。いわゆるRGBです。
JPEGでは、RGBじゃなくて、YUVっていうデータの記録方式になっている。YUVってなんか絵文字みたいだし、なんて読んでいいか、よくわからない。ワイ・ユー・ブイって言いにくいな。
それはさておき、RGBがRed、Green、Blueなのに対して、YUVは、Yは輝度、Uは輝度と青の差、Vは輝度と赤の差。ということになっている。
輝度というのは、どのくらい明るいかの度合い。暗いなら数値は小さく、明るければ数値は大きい。輝度だけでは、色は表現できない(白黒になる)。色は、UとVで表現する。
なんで、わざわざ変換するのか、というと、データ量にある。RGBで記録するより、YUVで記録した方が少ないデータ量で表現できる。ただし、データのロスは生じる。データ量が減るわけだから当然。しかしである。人間は色の差より、明暗の差の方により敏感なので、データロスが生じても、わかりにくくなっている。これがわざわざ変換する目的。
元々、YUVは、カラーテレビの時代に考えられたもの。
カラーテレビの前は、白黒テレビしかなかった。私はそんなに年をくっていないので、当時のことはよく知らないが、白黒テレビを見たことはある。ちょうど、東京オリンピックが行われたときに、テレビのカラー化が広まったと言われている。東京オリンピックって、昭和39年か。
白黒テレビでも、カラーの放送をみれるように、と考え出されたのがYUV。
今騒がれている地デジとは異なり、全く見れなくなるっていうわけじゃなかったのね当時は。どういうしくみなのか詳細はよくわからないが、白黒テレビは、Yの信号だけ再現。カラーテレビは、YUVの全部を再現。っていうことなんだろうな、きっと。
今、騒がれている地デジは、アナログからデジタルへの移行だから、互換性っていうのは期待できない。アナログ派の中にデジタルデータを埋め込むっていうのも無理そうだし。多分、検討はされたんだろうけど。
で、ですよ。JPEGにすると、RGBがYUVに変換される。RGBが各8ビットで24ビットだったら、YUVにすることで、16ビットくらいに減らすことができる。16ビット「くらい」とアバウトなのは、よく知らないから。けっこういろんな変換方式があって、12ビットになるっていう変換方法もあるらしいので。
YUVといっても、いろんなバリエーションがあるっていうことです。とはいえ、データ量が減ることは確か。24が16になれば、その差は、8ビット。8なんて、たいしたことはなさそうだが、1画素あたり8ビットなので、1000万画素なら、8000万ビットの節約になる。8000万ビット=1000万バイト=10メガバイト。かなり節約できる。
こういうことがカメラの中で、知らないうちに行われているっていうことです。
JPEGについては、まだ続く... かも...
RGBじゃないのがおしい
関連記事
カメラのしくみ「ノイズ」
カメラのしくみ「ノイズその2」
カメラのしくみを最初から読むなら、以下からどうぞ
カメラのしくみ VR 手ぶれ補正機能
サイト内を検索
イメージセンサーには、赤センサー、緑センサー、青センサーがあるっていう話をした。
イメージセンサーから収集したデータをそのまま(といってもヘッダは付けるが)、データファイルに記録したものが、RAWフォーマットの画像データ。
具体的なフォーマット、例えば、Rの成分を何ビットの情報として記録するのかは、イメージセンサによる。だって「生データ」だから。
関連記事
カメラのしくみ「イメージセンサ」
RAWフォーマットで記録された画像データは、01がたくさん並んでいるバイナリデータ。画像データは、シャッターを切った瞬間にSDカードに記録される。SDカードに記録された画像データをPCにデータ転送する。これをPCのディスプレイで画像を見ていることになる。
最終的に画像を目にするまでには、けっこういろんな「変換」が行われていることになる。変換が行われるたびに、元のデータとは微妙に違ってくる可能性がある。
おおざっぱに流れを追ってみよう。最初はアナログな情報である「光の強弱の具合」がイメージセンサによってデジタルデータに変換される。基本的にデジタルデータは転送しても劣化せずに、データを移動できる。紆余曲折あって、デジタルデータは最終的に出力装置で再現される。ディスプレイに表示する、とか、プリンタで印刷するとかね。これを人間が観賞している、っていうことになる。あくまでもおおざっぱですよ。
カメラで一瞬をとらえた画像が写真になるまで、けっこういろんなものが、間にはさまっているのである。
ここで、出力装置がプリンタで、モノクロレーザーだった場合を考えてみよう。当然、カメラで撮影した画像データはカラーである。白黒フィルムはあるが、白黒なデジタルカメラってあるのか?それは置いておいて、カラーの画像データを、モノクロのレーザープリンタで印刷したら、白黒で印刷された画像になる。
元々カラーなのに、白黒になっちゃうわけです。色の情報がロス(消失)している。
ちょっと古いPCのディスプレイでみたら、なんか「きれいじゃない」ってこともある。PCの能力で256色の色表現しかできない、っていうものもまだ現役で動いている(かも)。
ここでも情報がロスしている。
いろんなところで、「情報のロス」が発生する。それは装置の能力が決まっているので、しょうがないことなのである。
私は、RAWデータじゃなくてJPEGでSDカードに記録している。その方がたくさん入るし。PCのHDDに溜めておくときも小さい方がうれしい。JPEGの方が画像データの大きさが小さくなるから。しかしここでも情報のロスが生じている。
参考記事
カメラのしくみ「ノイズ」
YUV
ここで、やっと本題である。RAWフォーマットでは、赤、緑、青の各センサーから上がってきた数値をそのまま記録している。いわゆるRGBです。
JPEGでは、RGBじゃなくて、YUVっていうデータの記録方式になっている。YUVってなんか絵文字みたいだし、なんて読んでいいか、よくわからない。ワイ・ユー・ブイって言いにくいな。
それはさておき、RGBがRed、Green、Blueなのに対して、YUVは、Yは輝度、Uは輝度と青の差、Vは輝度と赤の差。ということになっている。
輝度というのは、どのくらい明るいかの度合い。暗いなら数値は小さく、明るければ数値は大きい。輝度だけでは、色は表現できない(白黒になる)。色は、UとVで表現する。
なんで、わざわざ変換するのか、というと、データ量にある。RGBで記録するより、YUVで記録した方が少ないデータ量で表現できる。ただし、データのロスは生じる。データ量が減るわけだから当然。しかしである。人間は色の差より、明暗の差の方により敏感なので、データロスが生じても、わかりにくくなっている。これがわざわざ変換する目的。
元々、YUVは、カラーテレビの時代に考えられたもの。
カラーテレビの前は、白黒テレビしかなかった。私はそんなに年をくっていないので、当時のことはよく知らないが、白黒テレビを見たことはある。ちょうど、東京オリンピックが行われたときに、テレビのカラー化が広まったと言われている。東京オリンピックって、昭和39年か。
白黒テレビでも、カラーの放送をみれるように、と考え出されたのがYUV。
今騒がれている地デジとは異なり、全く見れなくなるっていうわけじゃなかったのね当時は。どういうしくみなのか詳細はよくわからないが、白黒テレビは、Yの信号だけ再現。カラーテレビは、YUVの全部を再現。っていうことなんだろうな、きっと。
今、騒がれている地デジは、アナログからデジタルへの移行だから、互換性っていうのは期待できない。アナログ派の中にデジタルデータを埋め込むっていうのも無理そうだし。多分、検討はされたんだろうけど。
で、ですよ。JPEGにすると、RGBがYUVに変換される。RGBが各8ビットで24ビットだったら、YUVにすることで、16ビットくらいに減らすことができる。16ビット「くらい」とアバウトなのは、よく知らないから。けっこういろんな変換方式があって、12ビットになるっていう変換方法もあるらしいので。
YUVといっても、いろんなバリエーションがあるっていうことです。とはいえ、データ量が減ることは確か。24が16になれば、その差は、8ビット。8なんて、たいしたことはなさそうだが、1画素あたり8ビットなので、1000万画素なら、8000万ビットの節約になる。8000万ビット=1000万バイト=10メガバイト。かなり節約できる。
こういうことがカメラの中で、知らないうちに行われているっていうことです。
JPEGについては、まだ続く... かも...
RGBじゃないのがおしい
関連記事
カメラのしくみ「ノイズ」
カメラのしくみ「ノイズその2」
カメラのしくみを最初から読むなら、以下からどうぞ
カメラのしくみ VR 手ぶれ補正機能
サイト内を検索
カメラのしくみ「ノイズその2」 [カメラ]
今回もノイズの話である。
撮影した画像の中で、ノイズが入っているものを探してみると、やはり、高感度撮影したときのものに発見した。多分、これがノイズ。
踊っている人を中心に撮影してはいるが、さらすのがいやなので、右側だけトリミングしている。ノイズは、背景の壁の部分に多くみられる。ザラザラした感じに写っている。
白い小さい破片のようなものは、舞台に降っていた紙吹雪。なのでノイズではない。
でこの画像をレタッチソフトで、メジアンフィルタにかけてみた。使用したのはPaint Shop Pro8。結構古いが現状これで十分間に合っている。もはやGimpの方が高機能になっているかも。ミーハーな私としては、本当はPhotShopがいいのではあるが、高価なので、安いPaint Shopを使っている。そんなことはどうでもよくて、ノイズ除去する、っていう話である。
Paint Shot Proでは、メディアン フィルターになっているが、メジアンと同じでしょう。メディアン フィルタでは、フィルタの口径、というのを指定できる。大きくするとそれだけ、なめらかになる。つまりブツブツが消える感じ。口径を3、5、7と変化させてみた。
ブツブツ感は口径を大きくしていけば消えていく感じ。しかし、それにつれて、紙吹雪も消えていってしまうではないか。暗い星が消える、というのはこういうことか。
やっぱりノイズリダクションっていっても、ノイズだけをきれいに取り除くことはできないわけね。
ISO感度が大きいイメージセンサで撮るとどうなんだろう。性能がいいので、やっぱりノイズも少ないんだろうか... どうなんでしょう。
そもそもノイズが発生する原因は、よくわかっていない、というか私にはよくわからない。多分、ノイズを完全に遮断することはできないのではないかと思われる。自然界には電気的な信号が溢れているわけで、それを完全に取り除くのは多分、不可能。
イメージセンサーが熱を発生し、それがノイズの原因になっている。といった話をどっかのサイトでみた。熱っていうのはエネルギーなわけだから、電気的なノイズが発生するかもしれない。納得できる話ではある。CCDより、CMOSの方が熱や電気的には、エネルギーを使わないので有利らしい。しかし、ねぇ。どんだけ、効果があるのか。まぁ、そういう細かい小さな改良の積み重ねで、性能が上がっていくのだろうけど...
次回は、カメラのしくみ「RGBとYUV」>>
カメラのしくみを最初から読むなら、以下からどうぞ
カメラのしくみ VR 手ぶれ補正機能
サイト内を検索
撮影した画像の中で、ノイズが入っているものを探してみると、やはり、高感度撮影したときのものに発見した。多分、これがノイズ。
踊っている人を中心に撮影してはいるが、さらすのがいやなので、右側だけトリミングしている。ノイズは、背景の壁の部分に多くみられる。ザラザラした感じに写っている。
白い小さい破片のようなものは、舞台に降っていた紙吹雪。なのでノイズではない。
でこの画像をレタッチソフトで、メジアンフィルタにかけてみた。使用したのはPaint Shop Pro8。結構古いが現状これで十分間に合っている。もはやGimpの方が高機能になっているかも。ミーハーな私としては、本当はPhotShopがいいのではあるが、高価なので、安いPaint Shopを使っている。そんなことはどうでもよくて、ノイズ除去する、っていう話である。
Paint Shot Proでは、メディアン フィルターになっているが、メジアンと同じでしょう。メディアン フィルタでは、フィルタの口径、というのを指定できる。大きくするとそれだけ、なめらかになる。つまりブツブツが消える感じ。口径を3、5、7と変化させてみた。
フィルタなし | 口径3 | 口径5 |
---|---|---|
ブツブツ感は口径を大きくしていけば消えていく感じ。しかし、それにつれて、紙吹雪も消えていってしまうではないか。暗い星が消える、というのはこういうことか。
やっぱりノイズリダクションっていっても、ノイズだけをきれいに取り除くことはできないわけね。
ISO感度が大きいイメージセンサで撮るとどうなんだろう。性能がいいので、やっぱりノイズも少ないんだろうか... どうなんでしょう。
そもそもノイズが発生する原因は、よくわかっていない、というか私にはよくわからない。多分、ノイズを完全に遮断することはできないのではないかと思われる。自然界には電気的な信号が溢れているわけで、それを完全に取り除くのは多分、不可能。
イメージセンサーが熱を発生し、それがノイズの原因になっている。といった話をどっかのサイトでみた。熱っていうのはエネルギーなわけだから、電気的なノイズが発生するかもしれない。納得できる話ではある。CCDより、CMOSの方が熱や電気的には、エネルギーを使わないので有利らしい。しかし、ねぇ。どんだけ、効果があるのか。まぁ、そういう細かい小さな改良の積み重ねで、性能が上がっていくのだろうけど...
次回は、カメラのしくみ「RGBとYUV」>>
カメラのしくみを最初から読むなら、以下からどうぞ
カメラのしくみ VR 手ぶれ補正機能
サイト内を検索
カメラのしくみ「ノイズ」 [カメラ]
RAWデータの現像をしてみようかとも思ったが、今回はノイズについて。
本当は、JPEGの話をしたかったのだが、調べていると興味深い話を見つけたので、「急遽変更」って誰も急いではないか。
デジカメのイメージセンサには1000万個ものセンサーが付いている。個々のセンサーが感じとった光の情報をSDカードに記録する。SDカードにはデジタルデータが記録される。これをPCなどに転送して画像をみていることになる。デジタルデータとなった画像は、基本的にコピーしても劣化しない。元のデータと全く同じものがコピーされる。PCに転送する際に、ノイズが入ってもデジタルデータなので、ノイズ分はきれいに除去される。
しかし、センサーが光の情報を電荷に変換するとき、ノイズが入り込むことがある。アナログからデジタルに変換する際なので、どうしてもノイズが発生する。特に、感度を上げるとノイズと本当の光の量の差が小さくなるので、ノイズが目立つようになる。
ノイズを除去するのが、ノイズリダクション。テレビにもついてますよね。テープレコーダーにも付いていたかも、ノイズリダクション。テープレコーダーっていつの話だか。
でもって、ノイズリダクションは、ノイズの部分だけをきれいに除去できるのが理想的なんだけれども、そんなに都合のよい方法はない。イメージセンサから上がってくるのはデジタルデータなので、デジタル処理でなんぼでもできそうなものではあるが、そう簡単ではない。高感度にしたときや、そもそも弱い光のときはノイズなのか、ちゃんとした信号なのか区別が付かないから。
レタッチソフトにもノイズリダクションの機能がある。やってみると、きれいにはなる。ざらざらした感じの部分がきれいにつるつるに仕上がる。やっていることは、多分、平均値やメジアン値を計算してまわりの色と同じようにする。といったことがなされていると思われる。
これと同じことがデジカメの中で行われる。ちょっと前に発見したD3000の「ノイズリダクション」機能がまさにそれ。ノイズは、高感度にしたときや、スローシャッターにしたときに発生しやすいのて、自動的にノイズリダクションフィルターをかける、というのも納得できる話ではある。
で、普段の撮影のときは、ISOも400くらいだし、スローシャッターにもならないので、ノイズリダクション機能なんてあったのか、としか思わなかったのではあるが、結構問題になることがあるらしい。
どうも、Nikonのデジイチは、ノイズリダクション機能を完全にOFFにできないようなのである。最近の機種やD3000でもそうなのかはよくわからないが、ちょっと前の機種はそうらしい。
ノイズを取ってくれるのだから別にいいじゃん、と思うかも知れないが、一部の人たちには大問題らしいのである。どういう人たちかというと、星を撮影している人たち。
星といっても明るさはまちまち。明るい星、暗い星がある。ノイズリダクションによって、暗い星が写らない、といったことになるそうな。暗い星の光がノイズと間違われてなくなってしまうわけね。これは痛い。
でも、天体写真撮らないからいいか。
しかし、興味はあるぞ天体写真。今度、一回撮ってみようかな。長時間露光で。
次回は、カメラのしくみ「ノイズその2」>>
カメラのしくみを最初から読むなら、以下からどうぞ
カメラのしくみ VR 手ぶれ補正機能
サイト内を検索
本当は、JPEGの話をしたかったのだが、調べていると興味深い話を見つけたので、「急遽変更」って誰も急いではないか。
デジカメのイメージセンサには1000万個ものセンサーが付いている。個々のセンサーが感じとった光の情報をSDカードに記録する。SDカードにはデジタルデータが記録される。これをPCなどに転送して画像をみていることになる。デジタルデータとなった画像は、基本的にコピーしても劣化しない。元のデータと全く同じものがコピーされる。PCに転送する際に、ノイズが入ってもデジタルデータなので、ノイズ分はきれいに除去される。
しかし、センサーが光の情報を電荷に変換するとき、ノイズが入り込むことがある。アナログからデジタルに変換する際なので、どうしてもノイズが発生する。特に、感度を上げるとノイズと本当の光の量の差が小さくなるので、ノイズが目立つようになる。
ノイズを除去するのが、ノイズリダクション。テレビにもついてますよね。テープレコーダーにも付いていたかも、ノイズリダクション。テープレコーダーっていつの話だか。
でもって、ノイズリダクションは、ノイズの部分だけをきれいに除去できるのが理想的なんだけれども、そんなに都合のよい方法はない。イメージセンサから上がってくるのはデジタルデータなので、デジタル処理でなんぼでもできそうなものではあるが、そう簡単ではない。高感度にしたときや、そもそも弱い光のときはノイズなのか、ちゃんとした信号なのか区別が付かないから。
レタッチソフトにもノイズリダクションの機能がある。やってみると、きれいにはなる。ざらざらした感じの部分がきれいにつるつるに仕上がる。やっていることは、多分、平均値やメジアン値を計算してまわりの色と同じようにする。といったことがなされていると思われる。
これと同じことがデジカメの中で行われる。ちょっと前に発見したD3000の「ノイズリダクション」機能がまさにそれ。ノイズは、高感度にしたときや、スローシャッターにしたときに発生しやすいのて、自動的にノイズリダクションフィルターをかける、というのも納得できる話ではある。
で、普段の撮影のときは、ISOも400くらいだし、スローシャッターにもならないので、ノイズリダクション機能なんてあったのか、としか思わなかったのではあるが、結構問題になることがあるらしい。
どうも、Nikonのデジイチは、ノイズリダクション機能を完全にOFFにできないようなのである。最近の機種やD3000でもそうなのかはよくわからないが、ちょっと前の機種はそうらしい。
ノイズを取ってくれるのだから別にいいじゃん、と思うかも知れないが、一部の人たちには大問題らしいのである。どういう人たちかというと、星を撮影している人たち。
星といっても明るさはまちまち。明るい星、暗い星がある。ノイズリダクションによって、暗い星が写らない、といったことになるそうな。暗い星の光がノイズと間違われてなくなってしまうわけね。これは痛い。
でも、天体写真撮らないからいいか。
しかし、興味はあるぞ天体写真。今度、一回撮ってみようかな。長時間露光で。
次回は、カメラのしくみ「ノイズその2」>>
カメラのしくみを最初から読むなら、以下からどうぞ
カメラのしくみ VR 手ぶれ補正機能
サイト内を検索
Copyright Atsushi Asai Google+朝井淳
[データベースの気持ちがわかる]SQLはじめの一歩 (WEB+DB PRESS plus)
- 作者: 朝井 淳
- 出版社/メーカー: 技術評論社
- 発売日: 2015/03/03
- メディア: 単行本(ソフトカバー)
Access クエリ 徹底活用ガイド ~仕事の現場で即使える
- 作者: 朝井 淳
- 出版社/メーカー: 技術評論社
- 発売日: 2018/05/25
- メディア: 大型本