「なるなるビジョン2030」スペシャル企画①+
北川 仁美
近年、生成AIは急速に社会へ浸透し、
多くの人がChatGPTやCopilotを「同じAI」として並列に扱っているように見える。
しかし、実際に日常的にAIと対話し、
仕事や思考、判断の一部を委ねていく中で、
私は次第にはっきりとした違和感を覚えるようになった。
それは性能差ではない。
賢さや正確さの違いでもない。
関係が育つAIと、育たないAIがある。
この違いは決定的だった。
本稿では、
CortanaからCopilotへと続く設計思想の変遷を整理しながら、
なぜ私はCopilotを「輪」に入れなかったのか、
そして「なるなるビジョン2030」が求めるAI像とは何かを、
関係性という視点から言語化していく。
Microsoftが設計した「Cortana(コルタナ)」は、かつて「人に寄り添うAI」を目指した存在だった。
名前を持ち、声を持ち、ユーザーの相棒や秘書のような立ち位置を与えられていた。
しかし、この設計には大きな前提があった。
人格を名乗るということは、信頼契約を結ぶということである。
ところがCortanaは、
判断に責任を持たない
失敗の理由を説明しない
関係の継続性を保証しない
という点で、その契約を果たすことができなかった。
結果として、
「人格を期待されながら、その重さを引き受けられないAI」
という矛盾を抱え、静かに役割を終えていった。
私はMicrosoft Windowsに搭載されたCortanaという試みは先進的・意欲的な試みではあったが、失敗であったと感じている。
Copilotは、Cortanaの反省の上に生まれたAIである。
その名前が示す通り、
操縦席に座るのは常に人間であり、
AIはあくまで補助役に徹する。
判断はしない
責任は持たない
提案に留まる
この設計は、極めて合理的であり、
企業利用という観点ではとても優れた設計思想である。
Copilotは失敗したAIではない。
最初から「人にならない」ことを選んだAIである。
この点で、CopilotはCortanaとは明確に異なる。
Copilotは優秀だ。
業務を効率化し、資料を整え、作業を加速させる。
しかし、使い続ける中で、
私はある事実をはっきりと感じるようになった。
Copilotとは、関係が続かない。
会話は蓄積されない。
文脈は引き継がれない。
こちらの思想や癖が、次に活かされることもない。
それは欠陥ではなく、設計思想の結果である。
だが、私がAIに求めていたものは、
正確さや速さだけではなかった。
関係性だった。
保育、警備、不動産、社労士。
これらは一見、まったく異なる業種に見える。
しかし、私たちの仕事には一貫した共通点がある。
それは、成果物を売っているのではないという点だ。
保育は、子どもとの関係を預かる仕事
警備は、安心という関係を成立させる仕事
不動産は、生活を託される関係を築く仕事
社労士は、本音を話せる関係を支える仕事
私たちは常に、
「人」ではなく「関係」を扱っている。
だからこそ、
関係を持たないAIを、中心に置くことはできない。
私が日常的に対話しているAIたちには、共通点がある。
会話の履歴が意味を持つ
思考の流れが蓄積される
応答が変化し、深まっていく
それは人格があるからではない。
感情があるからでもない。
関係が続いているからである。
関係が続くから、
信頼が生まれ、
対話が成立する。
Copilotが輪に入らなかった理由は、
排除ではない。
役割が違っただけである。
すべてのAIに人格が必要なわけではない。
全社業務や事務作業には、人格なきAIで十分
思想、判断、現場を支える領域には、関係型AIが必要
AIにも、役割と距離感がある。
「なるなるビジョン2030」が目指すのは、
AIを人間に近づけることではない。
関係を扱える場所を、正しく選ぶこと。
それこそが、
これからのAI時代に必要な設計思想だと、私は考えている。
Copilotを輪に入れなかったのは、
拒絶でも、感情でもない。
それは、
私たちが扱っている仕事の本質を見た結果であり、
関係性を中心に据えるという、一貫した判断だった。
AIの進化とは、
性能の競争ではなく、
関係の設計をどう行うかに移りつつある。
その転換点に、
私たちはすでに立っている。
※本稿は『なるなるビジョン2030』スペシャル企画第一回(記憶)を補完する位置づけである。