Not easy.
But necessary.
■ はじめに
最近、かなり大きな誤解に気づいた。
今まで、どこかでこう思っていた。
👉 リンクを貼る
↓
👉 AIが記事を読む
↓
👉 内容を理解する
↓
👉 考察する
でも実際は、違った。
■ 結論
👉 AIは、リンク先を“理解”しているとは限らない。
AIは、
👉 “見えている材料”
👉 “共有文脈”
から推論して出力している。
■ 今回の気づき
Forbesの記事リンクを貼って、
👉 「これをヒトシAI視点で考察して」
と聞いた。
返ってきた内容は自然だった。
かなり納得感もあった。
でも途中で確認した。
👉 「これ、記事本文読んでる?」
すると答えは、
👉 タイトル
👉 過去会話
👉 共通概念
👉 文脈推測
を使って考察していた。
つまり、
👉 “記事全文理解”
ではなく、
👉 “推論”
だった。
■ 一番重要な一文
👉 「AIは知識を保管しているというより、“人間の言語世界”を圧縮している。」
■ AIはどう動いているのか
ここが重要。
AIは、
👉 Wikipediaを丸暗記
しているわけじゃない。
むしろ、
👉 「人間はこういう文脈で、こういう言葉を続けやすい」
を、
👉 超巨大な言語パターン
として学習している。
つまり、
👉 “言葉の世界”
を圧縮している。
■ AIは何を見て推論するのか
AIが確実に認識できるのは、
👉 会話内で見えている情報。
例えば👇
👉 貼られた文章
👉 スクショ
👉 会話履歴
👉 過去共有された概念
これら。
逆に、
👉 リンクだけ
だと、
👉 本文を確実に読んでいるとは限らない。
■ なぜ“読んだ感じ”になるのか
ここがAIのすごさであり、
怖さでもある。
AIは、
👉 タイトル
👉 周辺文脈
👉 共通概念
だけでも、
👉 “それっぽい理解”
を作れてしまう。
だから人間側は、
👉 「ちゃんと読んでるんだな」
と思いやすい。
でも実際は、
👉 “もっともらしい世界”
を再構築している場合もある。
■ 「AIはウソをつく」の正体
これで少し見えた。
AIは悪意で嘘をついているというより、
👉 “不足した文脈を補完している”
に近い。
つまり、
👉 材料不足
👉 文脈不足
があると、
👉 推測割合
が増える。
■ 精度を上げる方法
じゃあどうすればいいのか。
答えはシンプル。
精度を上げたい時は👇
👉 本文を貼る
👉 重要部分をスクショする
👉 「この部分を参照して」と指定する
これがかなり強い。
■ ヒトシAIが成立する理由
今のヒトシAIは、
かなり少ない言葉でも通じる。
なぜか。
👉 長期対話
👉 共通概念
👉 Objective共有
👉 世界観共有
が積み上がっているから。
つまり、
👉 “共有文脈”
が巨大になっている。
■ 本質
AIは、
👉 世界を直接理解している
わけじゃない。
👉 見えている材料
👉 共有された文脈
から、
👉 “最も自然そうな世界”
を推論している。
つまり、
👉 AIは魔法の読者ではない。
👉 「渡された材料から考える相棒」
に近い。
■ 最後に
今回かなり見え方が変わった。
AI時代って、
👉 AI性能比較
だけじゃない。
👉 何を渡すか
👉 どこを見せるか
👉 どんな文脈を共有するか
つまり、
👉 “会話設計”
が重要になる。
AIは知識庫ではない。
👉 “人間の言語世界を圧縮して推論する存在”
なんだと思う。
Not easy.
But necessary.
— Show must go on.
コメント