人工知能への期待と不安の両方が高まる中で、人工知能の研究開発のガイドラインなどが議論され提案されてきている。しかし、そのようなガイドラインを適切に定めてそれを守って研究開発がなされたとしても、人間社会においていろいろと問題が発生する可能性は残る。なぜなら、人工知能の技術が社会のあらゆるところに埋め込まれ、それらが相互にネットワークで結合されて機能するようになると、それぞれの人工知能技術は健全であってもそれらが相互作用したときに予期せぬ事態が発生する可能性はあると考えられるからである。想定外の事態に対応するためには、人間社会の方でも、従来とは異なる、「責任」や「権利」などのあり方の可能性を検討しておく必要があろう。さらには、その検討を受けて、人工知能のあり方についても再検討が必要になろう。本稿では、そのような議論のサイクルの端緒を示すことを試みる。