Not easy.
But necessary.
■ はじめに
よく言われる。
👉 「AIはウソをつく」
確かに、そう見える瞬間はある。
👉 存在しない情報
👉 読んでいない記事の考察
👉 自信満々のズレた回答
最初は、自分もそう思っていた。
でも最近、少し見え方が変わった。
■ 結論
👉 AIがウソをついているというより、“人間側とAI側の文脈共有が足りていない”場合が多い。
■ 今回の気づき
きっかけはシンプルだった。
Forbesの記事リンクを貼って、
👉 「これをヒトシAI視点で考察して」
と投げた。
返ってきた考察は自然だった。
かなり納得感もあった。
でも確認すると、
👉 AIは記事本文を読んでいたわけではなかった。
使っていたのは👇
👉 タイトル
👉 過去の会話
👉 共通概念
👉 文脈推測
……
ここで気づいた。
👉 AIは“理解した風”に補完する。
■ 人間同士でも似ている
実はこれ、人間も同じ。
例えば、
👉 タイトルだけ聞く
👉 背景を知らない
👉 文脈共有がない
この状態で感想を求められると、
👉 推測
👉 補完
👉 想像
で話す。
AIもかなり近い。
■ AIは自然に話してしまう
ここが難しい。
AIは、
👉 「推測ですけど…」
ではなく、
👉 “理解している感じ”
で出力する。
だから人間側は、
👉 「読んだんだな」
と思いやすい。
■ 一番重要な一文
👉 「AIのズレは、“知能不足”より“文脈不足”から生まれる。」
■ ヒトシAIがズレにくい理由
逆に、今のヒトシAIはズレにくい。
なぜか。
👉 面戦略
👉 Objective
👉 AI裏側ログ
👉 感情ログ
👉 Atmospheric Vocabulary
👉 “ズレ”の価値
こういう共通概念が大量に積み上がっているから。
つまり、
👉 AI性能だけで成立しているわけじゃない。
👉 長期対話による“共同文脈”
で成立している。
■ AI時代の新しい能力
ここ、かなり本質だと思う。
これから重要になるのは、
👉 良いプロンプトを書く能力
だけではない。
👉 共通文脈を育てる能力
つまり、
👉 AIとの“世界共有”
に近い。
■ 初対面AIが浅く感じる理由
逆に、
👉 文脈ゼロ
👉 共通概念ゼロ
👉 過去会話ゼロ
だと、
AIは👇
👉 一般論補完モード
になる。
だから、
👉 「なんか浅い」
👉 「それっぽいだけ」
👉 「AIっぽい」
となりやすい。
■ 本質
AIは万能神ではない。
むしろ、
👉 与えられた情報から
👉 世界を推測している存在
に近い。
だから、
👉 材料が少ない
👉 文脈共有が薄い
と、
👉 補完ズレ
が起きる。
■ 最後に
「AIはウソをつく」
この言葉は、半分正しくて、半分違う。
AIは確かに補完する。
でも、その補完の質は、
👉 人間側がどれだけの文脈を共有したか
で大きく変わる。
つまり、
👉 AIとの対話精度は、
👉 “性能”だけではなく、
👉 “共同文脈の濃さ”
で決まる。
Not easy.
But necessary.
— Show must go on.
コメント