詳細検索結果
以下の条件での結果を表示する: 検索条件を変更
クエリ検索: "インプットメソッド"
4件中 1-4の結果を表示しています
  • 西村 希槻, 寺澤 卓也
    日本e-Learning学会誌
    2019年 19 巻 1-9
    発行日: 2019/04/12
    公開日: 2019/04/15
    ジャーナル フリー
    In this paper, we proposed and evaluated a novel method to find mistypes in documents based on Bayesian theory. We considered that the characters entered just before mistyping are factors causing input errors. First, log data of key input is acquired for each user. Next, we obtain only the characters entered just before mistyped characters from the log data then analyze them. Finally, with these parameters, using the Bayes' theorem formula, the probability of mistaking the character immediately after the character which becomes the factor of mistype is calculated for each character. Under the cooperation of students, we confirmed there is a habit of keyboard input that cause mistype for each user, which we supposed for our method. Using documents from students that were made by themselves, we verified our method. Comparing characters that were placed just before mistypes found by eyes in a document and the characters with high probabilities that were calculated for that student by our method produced match rate of 93% in a realistic case.
  • 自然言語処理
    2022年 29 巻 4 号 1330-1335
    発行日: 2022年
    公開日: 2022/12/15
    ジャーナル フリー
  • 大川 丈男, 松尾 浩一, 細野 光治
    情報の科学と技術
    2007年 57 巻 4 号 188-191
    発行日: 2007/04/01
    公開日: 2017/05/09
    ジャーナル フリー
    1980年代から始まった図書館をシステム化するという波は,大型汎用コンピュータによる一極集中処理の形態から,データベース機能,業務処理機能,検索機能(OPAC)等を機能分けしたクライアント・サーバーシステムに移り,現在ではインターネット上にOPACを公開し, Webを通じていつでもどこからでも図書館が持つ情報にアクセスできる状況に至っている。これらの流れの中でコンピュータ技術者として実際に図書館システムの日本語化に携わった側面から,グローバル・スタンダードの大切さ特に文字コードの標準化や,またWebが主流となった情報検索の世界で図書館が果かす役割などを昔の苦労を振り返りつつ述べる。
  • 田中 佑, 村脇 有吾, 河原 大輔, 黒橋 禎夫
    自然言語処理
    2021年 28 巻 4 号 995-1033
    発行日: 2021年
    公開日: 2021/12/15
    ジャーナル フリー

    文章執筆時に発生する誤字などの入力誤りは,解析誤りを誘発するため,入力誤り訂正を行うシステムは重要である.入力誤り訂正システムの実現には,学習データとして多量の入力誤りとその訂正ペアが必要であるが,公開されている十分なサイズを持つ日本語入力誤りデータセットは存在しない.これまで,Wikipedia の編集履歴からフランス語などで入力誤りデータセットが構築されてきた.先行研究の手法は,編集のあった単語の特定を必要とするため,単語分割が必要な日本語に直接の適用はできない.本研究では,Wikipedia の編集履歴から,単語単位ではなく,文字単位の編集を手がかりとして入力誤りの候補を取り出し,それらに対しフィルタリングすることで入力誤りを収集する.この手法で約 70 万文ペアの大規模なデータセットを構築し,さらに,構築手法を評価した.次に,得られたデータセットを用いて,入力誤り訂正システムを構築する.訂正システムは,事前学習 seq2seq モデルを用い,入力誤り訂正のみを学習するシステムと,漢字の読みの推定を同時に学習するシステムを構築した.前者と比較して,後者は漢字の変換誤りの訂正において精度が向上した.また,学習データに疑似入力誤りデータを追加して学習し,その精度変化を見た.最後に,他の校正システムと入力誤り認識精度の比較を行い,本研究のシステムの精度が高いことを確認した.

feedback
Top