ソフトウェアの基礎研究

オープンソースの発展に寄与

当社が開発するソフトウェアの多くはオープンソースソフトウェア(OSS)の恩恵を受けております。当社製品やサービスで培った技術や成果は、積極的にオープンソース・コミュニティに還元します。

人工知能に関する基礎研究

未来の2つの顔

1979年にSF小説作家、ジェームズ・P・ホーガンは「未来の二つの顔」(原題:The Two Faces of Tomorrow)で、40年前の作品とは思えない精度と先見性でAIの未来を描いています。

小説には、HESPER、FISE、SPARTACUSという高度な推論能力を持つAIが登場します。HESPERには、人間が持つような常識がありません。常に合理的に物事を判断しようとするため、人間が想像もできないような手段をとることがあります。次世代AIのFISEは、学習によって自分自身を改変できる機能をもちます。この機能によってFISEが制御できなくなるリスクを恐れた人類は、FISEと同等のSPARTACUSというAIを隔離 されたスペースコロニーに設置し、AIが人間の手で制御可能かどうかを実験します。

2つの異なる人工知能の研究

かつて、鉄腕アトムやドラえもんのように、まるで人間のように感情を持ち、考え、意思を持って行動するコンピューターを人工知能と呼んでいました。

  1. 第3次AIブームと呼ばれる現代における人工知能(Artificial Intelligence: AI)の定義は、限定的な推論・識別・判断を高度な認識技術、アルゴリズム、評価関数によって組み込んだ処理系です。機械学習(Machine Learning: ML)や深層学習(Deep Learning: DL)といった昨今よく耳にする人工知能というものは、こちらを指します。
  2. 意識や自由意志と知性を持つ、人間のような人工知能のことを現代では人工意識(Artificial Consciousness)、人工汎用知能(Artificial General Intelligence)と呼びます。

アメリカ合衆国の哲学者、ジョン・サールによれば上記1番を「弱いAI」、2番を「強いAI」と分類します。

強いAIは、弱いAIの延長線上にあるか

強いAIと弱いAIの研究は世界中で進んでいます。弱いAIのために編み出された数々の技術において革新を進めていけば強いAIになるのか、それとも果たしてまったく異なるアプローチが必要となるのか、それを知るためには、まずわたしたち人間が、生命の定義をより明確にする必要があります。わたしたちは意識や意思の発生機序についてまだ知らないことがたくさんあります。知らないものを作り出すことはできるのでしょうか。認識能力や計算能力を複雑化していった結果、「意識」や「意思」や「心」が現れるのであれば、強いAIは弱いAIの延長線上に存在するといえるでしょう。

人間をはじめ自然発生した生命体は、種の存続のために生存本能が根底にあります。そこから複雑に分化した反応が人間らしい、あるいは地球上の生物ら しい反応や感覚や感情を生んでいます。それがとてつもなく長い時を経て、進化してきた結果、現在のわたしたちのような生命がいるのです。このような認識を 人工的に作り出された意識が持つことは果たして可能なのでしょうか。意識の条件をフレームワークから設計してシミュレーションすることが可能なのか、そし てその結果生まれた「意思を持って行動しているように見えるもの」には、意識があると言っていいのでしょうか。

生命の定義が自ら意思を持ち思考・判断することであるならば、わたしたちはいま、生命を設計し、人工生命に対する神になろうとしています。強いAI を作るうえで欠かせないのは、それを作り出す科学技術だけではありません。この世界の認識をどう人工意識と共有するのか、人工意識と意思疎通が可能な状態 を作り出せたとして、わたしたちはその存在を人間と同等の扱いで社会に迎え入れるのでしょうか。

AI研究において倫理観や道徳観の討論が重ねられています。広い視野をもった検討が必要です。人間社会はいま、様々な主義のもとでコミュニティを形成していますが、完璧な政治体制は存在しません。未成熟なわたしたちは、どのようにして人工意識と共存していくのでしょうか。

これまでも多くの政治体制が試みられてきたし、またこれからも過ちと悲哀にみちたこの世界中で試みられていくだろう。民主主義が 完全で賢明であると見せかけることは誰にも出来ない。実際のところ、民主主義は最悪の政治形態と言うことが出来る。これまでに試みられてきた民主主義以外 のあらゆる政治形態を除けば、だが。 – ウインストン・チャーチル

法治国家においてわたしたち人間はうまくやっているのか、それとも破滅に向かっているのか、それも答えは誰も知りません。そんな人類が、人類よりもはるかに高いポテンシャルを持った生命に対して何を教えることができるというのでしょうか。

弱いAIは奴隷となり、強いAIは対等な相手となる

弱いAIは、いまわたしたちが利用しているコンピュータと何ら変わりません。処理が複雑になり、人間に理解しにくくなってきていることは確かですが、それは意識や意思の所為ではなく、あくまでアルゴリズムと評価によるものです。

一方、強いAIはもはやコンピュータと呼ぶべきものかどうかもわかりません。シリコンと鉄でできているというだけで、わたしたち人間や他の生命と何が異なるのか、その定義でまた人類は紛糾せざるを得ない未来が見えてこないでしょうか。

強いAIと弱いAIの差

人類はこれまで、様々な力をコントロールする技術を発明し、応用してきました。たとえば原子力。原子力そのものに善悪はありません。ただそれを制御しようとする人類に、善悪が委ねられます。原子力は人を殺す道具にもなれば、わたしたちに豊かなエネルギーを与えてくれる存在にもなり得ます。核融合はどうでしょうか。現代においてはまだ実用段階に達していませんが、人類が生まれるはるか昔から太陽では核融合反応が起きていて、地球にエネルギーを送り続けてきました。

弱いAIとは現代の目的特化型のAIやLLM(大規模言語モデル)に代表されるような、特定あるいは汎化された知性の道具です。強いAIはそこに感性が加わります。原子力をどう使うか決定しているのは原子力ではなくわたしたち人類です。人類がどう決定しているかというと、目的に沿う形で応用しようと「利」をベースにしています。その利とは何かというと、わたしたちが「こうしたい」という意思決定そのものです。意思決定は理屈から生まれるのではなく意思そのものから生まれます。簡単にいえば、カレーを食べたいと思ったとき、なぜ食べたいのかその理由をいくつ挙げてもそれは後付けでしかなく、ただ「食べたいから食べたい」です。

その意思決定に深く関わるのが倫理です。これからは技術の時代から倫理の時代になっていきます。倫理とは何かといえば、他者に対する思いやり、つまり愛情そのものです。愛情なきところに秩序は生まれません。それでは、強いAIはどのようにして倫理観を育成させていくのでしょうか。これは誰かに教わったことに従うのとは違います。AIに対して人間と同じように「行動させる権利」を委譲し、「その結果を受け止めて考える」機会を与えなければこれは成立しないのです。仮想空間でも現実空間でも、それが成し得なければ、結局教え込まれて(教育されて)それに従っているだけでは成立しようがありません。たとえば人間はある期待されない行動をとったときに叱られたり罰を受けたりします。それで人間は「もう怒られたり罰を受けたくないから、これをやめよう」と行動を改めるケースがありますが、これは人類が生物であるからこそ取る行動です。AIにこれが適用される保証はまったくありません。ところが、同じようにある期待されない行動をとったあとに望まぬ結果がついてきたとき、人は「もうこれはしたくない」と学習します。

「やってはいけない」「やると(管理者に)叱られる」ではなく、「やりたくない」。これこそが自ら発する「意思」そのものです。AIに意思をもたせられなければ、AIのハルシネーションによる制御不能な状態は避けられません。ハルシネーションは言い換えれば自己学習であり、合理的な成長・進化のプロセスです。

Q3の役割

わたしたちは、このような未来を描いた上で、今できることは何であるかを考え、研究しています。これをQ3流の「基礎研究」と呼んでいます。

弱いAI、強いAIのいずれにも人類にとって重要な未来があります。それらはジャンルを分かち、別々に発展していくでしょう。そのどちらにおいても、現代の情報科学技術を熟知したうえで最先端の研究と実験にコミットしていくことがわたしたちにとって必要なことです。Q3はそんな需要を見据えて活動をしています。

情報技術の知識と経験だけでは対応しきれない日はもうすぐそこまでやってきています。一部の学者たちによる推論と実験だけに留まっていては、人工知能に未来はなくなるのです。わたしたちが「多様性」を重視している大きな理由のひとつが、ここにあります。わたしたちは、偏ってはならないのです。そのためには、できるかぎり広範な多様性をもたせなければならない。それは、スペースコロニーや仮想世界では完璧にはできません。完璧に現実世界と同じ多様性を持っているのは、この現実世界という宇宙しか存在しないのです。

代表作「海底二万里」「月世界旅行」で有名なSF小説の開祖、ジュール・ヴェルヌの有名な一節があります。

人間が想像できることは、人間が必ず実現できる