巨大言語モデル(LLM)に対して汎用的な論理推論能力を獲得させるための大規模論理推論コーパス FLDx2 (Formal Logic Deduction Diverse)を提案する.まず,コーパス設計を論じる.推論は,推論規則や言語表現等の様々な観点それぞれについて,許されるケース・許されないケースが存在する.LLMはこれを,コーパスに含まれるサンプルのみから,帰納的に学習しなければならない.よって,これらのケース全てを表現できる「十分に多様な」サンプルを用意する必要がある.これは,将来の人工論理推論コーパス設計にも適用可能な普遍的原則(帰納的な多様性の原則)だと考える.本研究では,帰納的な多様性の原則を念頭に既存のコーパス生成器を拡張することにより,帰納的に多様なサンプル30万件(6億トークン)からなるFLDx2を生成する.次に,LLMをFLDx2で追加学習し,その能力を多様なベンチマーク16種類を用いて評価する.その結果,多くのタスクで大幅な性能向上を達成した.更に,LLMが元々得ていた知識と新たに得た論理推論能力とを統合運用できることが明らかとなった.