IT化社会において信頼できる知識の基盤が必要である。Wikipedia, DBpedia, Wikidataは信頼できる知識基盤の重要な要素として認識されている。しかし、社会の広がりや多様性、信頼性へのニーズといった点で不足している。本稿ではWikidataを議論の出発点として、信頼できる知識グラフには何が必要か、そのためにどのようなことが必要かについて議論を行う。
DBpediaを対象とした多言語エンティティリンキング (EL) ツールとして,DBpedia Spotlight (DS) が提案されているが,現在,日本語対応モデルは公開されていない.本研究は日本語形態素解析をDSに導入し,DSの日本語対応モデルを開発することを目的とする.DSの日本語対応モデルと多言語対応モデルを比較し,フレーズスポッティングにおいて,日本語対応モデルの精度向上を確認した.
雑談対話システムにおいてユーザの嗜好を考慮して多様な対話を行うためには,ユーザ発話からユーザが有する知識を推測し,それに基づいて質問や話題提供をする必要があると考えられる.本研究では,ユーザ発話からユーザが有すると推測される知識の一部を,ユーザ知識グラフとしてSPARQLテンプレートを用いてDBpediaから抽出・蓄積し,それに基づいて雑談可能な対話システムを提案する.
Wikidataは最大級のオープンな知識グラフであり、さまざまな領域特定の知識グラフのハブとして使われている。その基盤ソフトウェアWikibaseは知識グラフ構築の基盤としてつかえるので、本研究では、法人情報を例に、このWikibaseを用いた独自の知識グラフ構築とWikidataとの連携について報告する。
The automobile industry is in a VUCA world called "era of revolution once in 100 years". To respond to the VUCA world, development sections require to concentrate human resources on development of future main products and accelerate development. Therefore it is required to manage existing business and ensure the quality of products with fewer human resources than ever before. To resolve this problem we considered to use accumulated knowledge of expert engineers to assist development. A part of the knowledge of expert engineers is that concerning failures occurred during development such as causes and solutions of the failures. A failure ontology proposed in this paper helps to extract the knowledge concerning failures from accumulated documents. In this paper we introduce how to construct the failure ontology and use it.
Knowledges on local foods contain important wisdom that can be applied to daily life even today. We have been developing applications, designing ontologies, and conducting cooking events to study and record information about local food. In this paper, we consider an ontology that can be used to manage cooking events of local food. First, we describe the requirements in the management of cooking events and attempted to design an ontology for the management of cooking events in UML. In addition, we consider the functions to automate the calculation of the quantity of ingredients for the event participants, to study the replacement of ingredients with alternative ingredients, and to support the creation of educational materials for the dietary education of local food. The specifications of these functions will be finalized and implemented in the future.
本研究では,牛の飼養衛生管理に必要な共通語彙をオントロジーを用いて構築する.さらに,畜産現場における共通語彙の利活用のために情報提示サービスを開発し,公開する.最後に領域専門家による評価を通じて畜産分野における共通語彙の有用性と可能性について考察する.
企業に蓄積された非構造データをビジネスに活用するために,知識グラフ技術が活用されている.知識グラフの意味・観点を制御するオントロジーについても着目されているが,オントロジーを手動で作成するには多大なコストがかかる.本稿では,ニーズのある業務を大きく2種類に分別し,業務データの種類に応じたオントロジー構築方法を提案する.それぞれの手法を業務に即したドメインデータに適用し、提案手法の効果を示す.
Linked Open Data(LOD)のデータセットの内容や構造を記述するためのメタデータ語彙やアプリケーションプロファイル等のメタデータスキーマは,これらを公開する機関・プロジェクトが消失する等に伴いメタデータスキーマの公開に用いられるWebサイトからスキーマの記述が消失することにより,_期的なアクセスができないという問題がある.本研究では,この課題のLOD固有の問題を分析し,解決手法として情報の_期保存のモデルであるOAIS参照モデルに即したメタデータスキーマの_期的な管理手法の提案とBlockchain技術を用いたスキーマの_期管理プラットフォームの構築を行う.
既存のメタデータターム(以下ターム)を再利用することでLinked Open Data(LOD)データセットの相互運用性の向上が期待できる。しかし、ターム単体の定義には用法が十分に記述されておらず、定義のみでは目的に適した既存のタームを発見することは難しい。例えば、プロパティ「dcterms:creator」はそのドメインに「本」、レンジに「人」を表すクラスを伴うことで「著者」を表現する項目として利用されうるが、本来の定義では「リソースの作成の責任者」という汎用的な意味しか示さないため、知識のない探索者はその用法を見落としてしまう。本研究では、ターム定義に加えて、タームの利用の文脈としてLODデータセットの構造情報を利用したタームの探索支援を行う。特に、LODデータセット中の各プロパティのドメイン・レンジクラスと、その語彙定義などを構造情報として、用法の類似性に基づくプロパティの探索手法を提案する。
著者らが開発している行動分析技術Actlyzerは、Deep Learningによる認識とルールによる認識を組み合わせる事で、複雑な行動の認識を実現する。本稿では、この認識ルールの仕様概要を説明し、その記述例を挙げる。また、Actlyzerによって実現される購買行動分析手法について解説を行い、分析結果から得られる知見について言及する。
This paper proposes a novel spatio-temporal scene graph dataset. Spatio-temporal scene graph generation is an essential task in household activity recognition that aims to identify human-object interactions. Constructing a dataset with per-frame object region and consistent relationship annotations requires extremely high labor costs. Existing datasets sparsely annotate frames sampled from videos, resulting in the lack of dense spatio-temporal correlation in videos. Additionally, existing datasets contain inconsistent relationship annotations, leading to the problem of learning ambiguous temporal associations. Moreover, existing datasets mainly discuss relationships that can be inferred from a single frame, ignoring the significance of temporal associations. To resolve those issues, we created a simulated dataset with per-frame consistent annotations and introduced a range of relationships requiring both spatial and temporal context.
高齢者の転倒は予防可能であるにも関わらず,これほど大きな社会課題になっている原因の1つは,科学的な予防アプローチが実践されていない点にある.傷害予防の分野では,科学的な傷害予防アプローチとして,教育,環境改善,法制化の3つが有効であるとされ,その中でも環境改善を優先的に取り組むことが推奨されている.そこで本研究では,高齢者の転倒という複雑な日常生活現象を,環境改善につながる変数を含めて記述し,計算可能にする方法論を検討する.具体的には,東京消防庁から提供された高齢者の救急搬送データを用いて,ノードとして記述すべき項目を検討し,実際の救急搬送事例に基づいた知識グラフの作成について述べる.また,作成した知識グラフを用いた類似度計算やクラスタリング分析を紹介する.最後に,知識グラフを活用した今後の展開について議論する.
家庭内における高齢者やこどもの事故は重要な課題であり,家庭内の日常生活に潜む安全上の問題の検出や分析の研究開発が行われている.我々はこれまでに,家庭内の日常生活のデータ分析を促進させるべく,仮想空間を用いたシミュレーション情報をナレッジグラフ(KG)として合成するシステム「VirtualHome2KG」を開発してきた.本稿では,VirtualHome2KGを家庭内の事故予防に応用し,日常生活の合成KGから事故のリスクを推論により検出する手法を提案する.具体的には,外部オントロジーとの統合や,クラウドソーシングを用いたデータ収集によるVirtualHome2KGの拡張,事故データに基づいた推論ルールの作成と,事故リスク検出の実験を行う.さらに実験結果を考察し,将来の展望について述べる.
高齢者の事故発生場所は,住宅が最も多く,家庭内における生活の安全維持が重要な課題である.また,我々はこれまでにナレッジグラフとして表現された推理小説を用いたナレッジグラフ推論チャレンジを開催してきた.本稿では,これまでのナレッジグラフ推論チャレンジ開催の経験と知見を踏まえて,高齢者の安全を題材にしたより実務的なナレッジグラフ推論チャレンジを提案する.
COVID-19の感染拡大防止に向けて,日本国政府では「3つの密」(以下,三密)や,「5つの場面」を提言してきた.これらの提言に基づき,各人の感染リスクを自動で評価できれば,追跡調査対象者の順序付けやスクリーニングといった保健所で行われている業務を大幅に効率化できる.本論文では,場所や行動に紐づくCOVID-19感染リスクを整理し,個別の行動事例における感染リスクを推論可能なオントロジー(CIRO)を開発した.また,CIROに基づいたナレッジグラフから,追跡調査に有用な三密リスクの推論とグラフ検索が可能であることを示した.さらに,追跡調査業務の現場における実用化に向けて,データサイズと条件を変更しながら推論実験を行い,CIROの十分性や拡張性,実現可能性を考察した.
In recent years, there is an interpretability problem that even experts cannot explain the reasoning process of machine learning. A contest featuring interpretability, "First Knowledge Graph Reasoning Challenge 2018." was held in Tokyo. A previous study presented a method based on embedding with triple for learning the sense of words. However, information about object simultaneity, such as location and time, which should be learned at the same time, is lost. Therefore, we propose an inference method that learns the graph structure by means of a graph convolutional network (GCN) and explains important connections on the graph by means of layered relevance propagation (LRP). The experimental results show that the proposed approach indicates the reasoning process using additional knowledge and the propagation of relevance by LRP.