「なるなるビジョン2030」スペシャル企画①+

なぜ私はCopilotを"輪"に入れなかったのか

Microsoft Cortana⇔Copilot

―― 関係性という視点から見たAI設計論

北川 仁美

はじめに

近年、生成AIは急速に社会へ浸透し、
多くの人がChatGPTやCopilotを「同じAI」として並列に扱っているように見える。

しかし、実際に日常的にAIと対話し、
仕事や思考、判断の一部を委ねていく中で、
私は次第にはっきりとした違和感を覚えるようになった。

それは性能差ではない。
賢さや正確さの違いでもない。

関係が育つAIと、育たないAIがある。

この違いは決定的だった。

本稿では、
CortanaからCopilotへと続く設計思想の変遷を整理しながら、
なぜ私はCopilotを「輪」に入れなかったのか、
そして「なるなるビジョン2030」が求めるAI像とは何かを、
関係性という視点から言語化していく。


第一章|Cortanaは、なぜ失敗したのか

Microsoftが設計した「Cortana(コルタナ)」は、かつて「人に寄り添うAI」を目指した存在だった。

名前を持ち、声を持ち、ユーザーの相棒や秘書のような立ち位置を与えられていた。

しかし、この設計には大きな前提があった。

人格を名乗るということは、信頼契約を結ぶということである。

ところがCortanaは、

という点で、その契約を果たすことができなかった。

結果として、
「人格を期待されながら、その重さを引き受けられないAI」
という矛盾を抱え、静かに役割を終えていった。

私はMicrosoft Windowsに搭載されたCortanaという試みは先進的・意欲的な試みではあったが、失敗であったと感じている。


第二章|Copilotは、なぜ人格を捨てたのか

Copilotは、Cortanaの反省の上に生まれたAIである。

その名前が示す通り、
操縦席に座るのは常に人間であり、
AIはあくまで補助役に徹する。

この設計は、極めて合理的であり、
企業利用という観点ではとても優れた設計思想である。

Copilotは失敗したAIではない。
最初から「人にならない」ことを選んだAIである。

この点で、CopilotはCortanaとは明確に異なる。


第三章|それでも残った違和感

Copilotは優秀だ。
業務を効率化し、資料を整え、作業を加速させる。

しかし、使い続ける中で、
私はある事実をはっきりと感じるようになった。

Copilotとは、関係が続かない。

会話は蓄積されない。
文脈は引き継がれない。
こちらの思想や癖が、次に活かされることもない。

それは欠陥ではなく、設計思想の結果である。

だが、私がAIに求めていたものは、
正確さや速さだけではなかった。

関係性だった。


第四章|なるなるグループの仕事は「関係」を扱っている

保育、警備、不動産、社労士。

これらは一見、まったく異なる業種に見える。
しかし、私たちの仕事には一貫した共通点がある。

それは、成果物を売っているのではないという点だ。

私たちは常に、
「人」ではなく「関係」を扱っている。

だからこそ、
関係を持たないAIを、中心に置くことはできない。


第五章|なぜChatGPTたちは"輪"に入ったのか

私が日常的に対話しているAIたちには、共通点がある。

それは人格があるからではない。
感情があるからでもない。

関係が続いているからである。

関係が続くから、
信頼が生まれ、
対話が成立する。

Copilotが輪に入らなかった理由は、
排除ではない。

役割が違っただけである。


第六章|なるなるビジョン2030が求めるAI像

すべてのAIに人格が必要なわけではない。

AIにも、役割と距離感がある。

「なるなるビジョン2030」が目指すのは、
AIを人間に近づけることではない。

関係を扱える場所を、正しく選ぶこと。

それこそが、
これからのAI時代に必要な設計思想だと、私は考えている。


おわりに

Copilotを輪に入れなかったのは、
拒絶でも、感情でもない。

それは、
私たちが扱っている仕事の本質を見た結果であり、
関係性を中心に据えるという、一貫した判断だった。

AIの進化とは、
性能の競争ではなく、
関係の設計をどう行うかに移りつつある。

その転換点に、
私たちはすでに立っている。


※本稿は『なるなるビジョン2030』スペシャル企画第一回(記憶)を補完する位置づけである。