計算機システムの基本演算は,ソフトウェアを組み上げる際の素材であり,その性質や処理効率が最終的なソフトウェア性能に大きな影響を及ぼす.近年の集積回路技術の進歩は,ハードウェア設計に大きな自由度と可能性を与えており,計算機システムの基本演算としても従来実現できなかったようなものが実現できるようになってきた.複雑な基本演算の効率の良い実現には,ハードウェア設計の基礎となるアルゴリズム(ハードウェアアルゴリズム)の設計が重要である.本稿では,ハードウェアアルゴリズム設計の立場から,超LSI時代の計算機システムの基本演算について概説し,今後の問題点について考える.
電子計算機の内部で実数値を表現するための新しい表現法URR (Universal Representation of Real numbers)を先に提案した.これは実数値の区間に適用する2分法に共づいており,1から∞に向って,あるいは0に向って分割点が二重指数的に増大あるいは減少するように選ぶものである.ここではそのURRについて更に広い視野からの位置づけをし,かつより詳しく検討した. URRの特徴は次のものである.(i)オーバフロー,アンダフローが事実上起こらない.(ii)データ形式はデータの長さに依存しない.(iii)同じ長さの固定小数点表現と比べて,分解能に関して1ビットの不利に止まる.これらの点から,ディジタル装置に用いる数値表現として最適のものといえよう. 高次代数方程式のGraeffeの解法に適用して妥当な結果を得た.URRの演算論理は特に複雑ではなく,容易に構成可能である.
3年位前には,かなり差が縮まってきて,この分ではやがて大差がなくなるのではと思われたアメリカの大学と日本の大学における計算機科学の研究環境および計算機に係わる教育環境が,ここへ来て,圧倒的な差がでてきたように思える.このことは,施設・設備面,資金面の双方についていえそうである. たとえば,資金面ではSystem Development Corporationが,税金対策もあろうが,5億ドルを基金として,計算機科学,特に人工知能の先進的な研究を援助し始めており,スタンフォード大学には,この基金からの援助によって,人工知能の研究を主目的とするセンターCSLI (Center for the Study of Language and Information)が設立されたし,個人的には,マサチューセッツ工科大学のCarl Hewitt教授などは500万ドルもの研究資金を受けている. この他にも計算機メーカーと大学との間で巨額の委託研究契約がいくつも結ばれているが,とりあえず,施設・設備面の話題に限定し,カーネギー・メロン大学を例として取り上げ,紹介してみたいと思う.