確かに、できるなら光学補正にしてほしいと願うのは人情かもしれないが、今、あらゆるものがソフトウェア補正である。
というか、そもそもデジタル回路である電子回路自体が、かつてはハードウェア補正だった。
どういうことか。
どんなシリコンチップも、機差が存在する。ロットによって特性がバラけるのだ。これは有名な話だが、インテルのi7とi5は設計的にも同じもので、特性のよかったものがi7、よくなかったものがi5だ。
組み込みPICなんかそうだが、小さなスペック差でいろいろなチップがラインナップされていることがあるのはこういうことだ。
デジタルにも公差があるのだ。
かつてこれは、ハードウェア補正をしていた。
どういうことかというと、たとえば、機械の場合、パーツ点数が増えるほど公差によるズレが大きくなる。ひとつのパーツでは0.001mmしか公差がなくても、100点あれば0.1mm(非常に単純化した話)。これは機械的に許容できるもんじゃない。
電子部品もかつては機能別にいくつものシリコンチップを並べた。
古い電子機器を開けてみると、ズラっとICが並んでいる。
空中配線の残り香のあるような電子機器だとびっくりするくらいICが並んでいる(逆に空中配線全盛のやつにはないけども)。
機械と同じく、チップ点数が増えると、それぞれの特性が影響しあい、許容できない事態が生まれる。これを防ぐため、IC毎の組み合わせを変えてみたり、ロットの違う部品に交換してみたり、という作業があった。
これは当然、工数もかさむ。値段が高くなるのだ。
しかし、現在はこれをソフトウェアで補正している。
たとえば、計測器で±1mvの差があったとしたら、移動平均なりの処理をしてバラツキを抑える。
こういう処理はハードでももちろんできる(かつてASICは高価だったから小ロット製品で使うはずがない)が、ソフトでやるとすこぶる楽だ。ハードが変わっても流用もきく。
そもそも、ローパスフィルタというのも電気・電子回路の概念である。ハイカットフィルタとかもある。
今のデジタル回路は、このローパスフィルタはソフトウェア上に存在する。
だから、デジカメもローパスレスなのはあくまでも「光学的」なローパスであって、画像処理エンジン自体は絶対にローパスしているはずだ。
なので、レンズは設計費だけではなく、工賃やテストにかかる費用が大きく下がっているはずなのだ。
電子回路代はあがっているだろうが、小ロットになればなるほどソフトウェア補正や、ASICによる補正の恩恵が生まれる。
もっとも、あまりに小ロットになるとASICの資金が払えず、カスタムチップだろうが(リコーはたぶんそう)。
最近、優秀な割に安いZレンズが立て続けにリリースされているが、そういうことだと思う。
完成レンズごとのいわゆる「当たりはずれ」もソフトウェア補正依存になることで少なくなる。しかし、先もいったように、デジタル製品にも機差がある。
なくなるわけではない。
ちょっと話は違うが、リコーのGXRシリーズがテレセントリックを無視したレンズ設計をしつつ、ユニット交換式であることを生かし、センサをレンズに最適化したことで超画質を実現したのも、一種似たようなものではある。
つまり原理的には、この世で最も優れたデジカメはライカQなのではないか? と思う。必ずレンズとセンサーが一対一になるので、機差や特性をテストで補正することができ、安いコンデジではやらないだろうが、価格が価格なので十分にテストできる経費が支払える。
結果として、すべてが最適化(校正)された状態で出荷できるのだ。