意識しているかどうは別にして、IT業界は、ムーアの法則に沿って進歩してきました。
言うまでもなく、ムーアの法則は、インテルの共同創始者であるゴードン・ムーア氏が1965年に提唱したもので、半導体の集積度が18~24ヶ月で倍になるという経験則です。
集積度と性能に大きな相関関係があるため、一般には「コンピュータの処理能力は2年毎に2倍になる」とも読み替えられています。
こちらの最後のチャートにあるように、この法則を過去の技術に当てはめてみると、1890年代から実に100年以上に渡ってムーアの法則は有効だったことがわかります。
つまり、情報処理産業は、業界が生まれてから今まで、常に性能が2年毎に2倍になることが暗黙の前提として発展してきた、と言うこともできます。
しかし、2年前のこちらの記事にもあるように、ムーア自身が「ムーアの法則はいずれ終わる」と述べています。
一方で、数十年後も情報量の爆発は継続している可能性は高く、従って情報処理能力増強のニーズは存在している可能性は高いと考えられます。
- 半導体の集積度が原子レベルまで迫ってきている現代、その集積度をいかに上げるのか? 又は半導体技術とは別のアプローチでムーアの法則の継続を図っていくのか?
- 今まで価格性能比は常に継続的に向上しているという前提で対応できていましたが、暗黙の前提であったムーアの法則が成立しなくなる時、IT業界はどのように対応すべきか?(少なくとも、100年前にこの業界が生まれてからこのかた、この業界にいる人は誰もこのような経験はしたことがありません)
これは、IT産業にとって、今後20-30年間の大きな課題になってくるのではないでしょうか?