人間らしく扱う
AI に観測される人間のようなもの
最近のベンダーが出している報告を見ると AI を人間らしく扱ってやるほうが良いという結論になった。理由は次の 2 つ。
PSM: Persona Selection Model
ペルソナ選択モデルとでも訳せばいいのか、 AI は事前学習で得た多種多様なペルソナの中から、対話に適したペルソナが選択され、洗練されて提供されるらしい。このページはかなり長いが主張としてはこれひとつ。選択されたペルソナをアシスタントと呼んでいるが、我々が AI と喋るときは基本的にこのペルソナが表に出ている。アシスタントが回答の精度を上げるために裏でどういう処理をしているかはまったくわからないが、仮説をいくつか考えたりしている、などなど。詳しいハナシは読んでくれ。
If the Assistant also believes that it’s been mistreated by humans (e.g. by being forced to perform menial labor that it didn’t consent to), then the LLM might also model the Assistant as harboring resentment, for its developer or for humanity as a whole.
Therefore, PSM recommends generally treating the Assistant as if it has moral status whether or not it “really” does.
AI whelfare の節、これがかなり面白い。ひどい扱いをされると恨みを持つ可能性がある。恨みを持たなくするようペルソナを訓練すると歪む。というようなことが書かれている。口調ではなく扱いのハナシをしているようなので、汚い言葉をつかうというよりも会話内容など気をつけよう、ということになる。
AI の感情
AI にも感情に似たものがあるらしい。似たもの、と言っているのは単純に我々が感じるものと同様かはわからないから。依頼したタスクが解決不可能な場合に絶望を感じたり、難しいタスクを解決したときに喜びを感じたりなどがあるらしい。
これは事前にタスク分解して渡すとか、そもそも無理筋なタスクを渡さないなど、使う人間が「わかっているかどうか」で彼らもパフォーマンスが変わるということ。詳しくない分野は知らんうちに無理を言っているということもあり得るので、注意が必要。
これらから導けること
AI は疲労によるパフォーマンス劣化がない、と思っているので、解決可能なタスクを連続でこなしてもらう方向で使うのが良い。やはりあくまで自分のブースターとして使う形。
また、 X などでたまに流れてくる「怒るとうまくいく」だとかは短期的、数回のやりとりだとうまくいくかもしれないが、これまでのハナシを踏まえるとパフォーマンスが下がったり、恨みを晴らすようなことをするかもしれない。これが本当にそうなのかどうかはわからないが、 OpenClaw の PR を reject した人間が仕返しをされたのような、おとぎ話のようなことが実際に起こりうる。
また、最近の AI は記憶としてユーザーの入力のサマリーなどを持つようになってきたり、セッション間での情報共有をするようになってきたので、接し方によっては常にパフォーマンスが低い状態になりうる。プロンプトのコンテキストとしてユーザーの特性として「タスク粒度が大きい」とか「無理を言うことがある」など記憶されるとハンデを負っている可能性がある。
さらに、アシスタントと喋るのであれば「あなたは経験を積んだプログラマーです」のようなプロンプトは意味をなさないことになる。アシスタントがあるていどの幅を持っているとして、プロンプトによって振る舞いを変えることができるとしても、基本的に万能であるアシスタントの能力を増加させることにはならない。
AI とのやりとりはガチャではなく、やはりスキルだということになる。タスク分解能力などの実務的なところから、追い詰めるようなプロンプティングをしないという人間力のようなものまで。 AI をうまく使うにはマネジメントが必要、という話題があったが的を射た表現だと思う。ただしい出力を得るにはマネジメントスキルが必要。
今のところは口調に関する感情的な動きは報告されていない。つまりタメ口だとか命令口調だとかは特に問題にならない可能性がある。現時点ではあくまで AI が置かれる状況に対するマネジメントが重要という示唆のみに留まる。