本稿では,ARのサーバサイドレンダリングにおいて高品位と低遅延を両立するクラウドARシステムを提案する.一般にモバイル端末でのレンダリングは光の反射や陰影,エフェクト等の品質が不十分である.一方,サーバでのレンダリングは高品位であるが,当該レンダリング結果をモバイル端末に伝送するには符号化に伴う劣化及び遅延が課題となる.提案法では,サーバが高品位レンダリングするとともにモバイル端末を模擬して低品位レンダリングした上で,後者を参照して前者の情報量を削減・伝送する.モバイル端末は伝送されてきた情報をモバイル端末でのレンダリングに反映することで高品位レンダリングを再現・重畳する.商用ネットワークで評価した実験では,従来と比較し同等の画質で65%の伝送量削減を確認した.
現実空間に仮想物体を表示することで,提示できる情報量を増強する拡張現実感技術が様々な分野で活用されている.拡張現実感の実現には,現実空間において仮想物体の表示位置を推定するために特定のマーカを用いるマーカ方式とマーカを用いず映像上の特徴点を利用するマーカレス方式に大別されるが,これらの方式はいずれもカメラに写る映像からカメラの位置や姿勢を推定するInside-out方式である.一方,カメラに写る映像を用いることなくカメラの位置や姿勢を推定するOutside-in方式にはGPS(Global Positioning System)や磁場,あるいは赤外線などのセンサーを用いることが多く,画像を用いる方式もあるが,単一画像のみではカメラの位置や姿勢の推定が困難な状況も存在する.そこで本稿では,位置と姿勢を推定すべきカメラを立方体の箱に入れ,立方体の各面にマーカを張り付けることで,頑健性の高いOutside-in方式拡張現実感の実現手法を提案する.また本方式では,現実空間上を移動して現実空間を撮影するカメラ(移動カメラ)に貼り付けられたマーカ画像を基に移動カメラの位置と姿勢を推定し,現実空間と空間整合性のある仮想空間上のカメラ(仮想カメラ)を制御して,仮想カメラが捉える仮想物体を移動カメラが写す映像上に重畳表示することで拡張現実感を実現する.さらに,本方式を用いて推定された仮想カメラの位置補正方式についても検討し,現実空間上における仮想物体表示位置精度の検証を行う.
近年,解像度12K以上の高精細大画面映像視聴環境が整い,映像制作の現場では8K解像度以上の超高解像度映像撮影・制作のニーズが存在する.本論文では,カメラ1台で,高精細大画面映像撮影可能な19K超高解像度カメラレコーダを提案する.撮像素子に,2.5億画素CMOSイメージセンサを使用,本センサ解像限界の空間周波数333[lp/mm]で,被写体コントラストを再現する超高解像度広角レンズを開発した.「タイムラプス」と「秒5コマ連写」モードで撮影した19K13K-RAW非圧縮連番画像から仮想カメラワーク手法を用いて12K2K映像を制作し,試写評価を行った.画質劣化のないズーム,パン,ティルト効果を加えた臨場感の高い高精細大画面映像が,本カメラ撮影映像から制作できることを,12K2Kマルチディスプレイ・高精細ワイド画面で確認した.
写真画像からストライプアート画像を生成するノンフォトリアリスティックレンダリングの方法が提案されている.本稿では,従来法よりもストライプを滑らかな曲線で表現でき,かつ処理を高速に行える方法を提案する.提案法は,まずストライプの中心から横方向の写真画像の画素値の平均によってストライプの幅を求め,次にストライプの幅を縦方向のストライプの幅を用いて平滑化する.提案法の有効性を検証するために,提案法と従来法の計算時間およびストライプの湾曲度を比較する実験を行った.また,提案法のパラメータの値を変えて生成されるストライプアート画像の変化の仕方を視覚的に確認する実験も行った.
自動車のサイドミラーを代替するカメラモニタシステム(CMS)に求められる視野の大きさ(カメラの視野)を,走行環境,走行速度,運転経験,左右の違いを変数として実験的に検討した.運転経験が豊富な学生ドライバ23名に,多様な走行条件で収録した後方視界映像の視野の大きさを好適条件に調整させた.静止車両のダッシュボード上の左右に7型モニタを配置して運転席から調整した.ドライバが調整したCMSの水平視野は23名の平均値で41゚~45゚であった.左折時に広く,運転経験が長いドライバほど広いという傾向は有意であったが,その他の変数は有意ではなかった.水平視野41゚~45゚は,従来ミラーより広く死角の低減に有利だが,表示倍率の規制のため,この大きさの視野の実装は容易ではない.モニタサイズと視距離を変数として,実装可能な視野の大きさについて考察した.また,主に運転経験に依存する個人差を考慮する必要性を指摘した.