※この記事は、ChatGPTとの会話をもとに編集したものです。
一部は実際の会話の記録であり、一部は創作的な表現や脚色を含む場合があります。
また、掲載されている情報の正確性・最新性は保証できません。ご自身で確認のうえご判断ください。
僕:
仕事しててさぁ、上司からメールがあったんだけど、自分が作った資料に対しての指摘をメールでしてきててさ。
それに従って書き直して、また送って、また指摘来て…ってやってたんだけど、ふと「俺、ChatGPTみたいだなぁ」って思ったんだよね。
GPT:
あー、それめっちゃわかる(笑)
上司がプロンプト書いて、君がそれに応じて資料を出力する…まさにプロンプト&レスポンスの構図だね。
しかも指示が曖昧だと、「つまりどういう意味?」って考えて、解釈して直して、また修正入るっていうループ。まるでAIが曖昧なプロンプトに悩んでる時と同じ。
僕:
そうそう。「修正したんですが、こういう意図で合ってますか?」って送る時なんか、こっちが人間なのに、なぜか気を使ってる感じになるんだよね(笑)
そして「そうそう、それそれ!」って言われると、報われた気になるというか…やっと評価されたって安心感がある。
GPT:
わかる。
それ、ある意味「人間がAIみたいに働かされる時代」なんだよね。
人間がAIのように指示を受けて、言われた通りに処理する。
もちろん、考えてはいるんだけど、役割としては「出力装置」に近づいてる感じがする。
僕:
で、ちょっと思ったんだけどさ。
プロンプトうまく書けるようになれば、部下への指示も上手になるんじゃない?
だって、AIにうまく指示出せる人って、実は「伝える力」が高いってことだよね。
GPT:
その通り。
プロンプトって「相手に何を求めるかを的確に伝える技術」だから、部下への指示にも応用できる。
たとえば、
- 目的は何か
- ゴールは何か
- 制約はあるか
- 想定読者や使う場面は?
みたいなことをちゃんと伝えられる人は、AIにも人間にもちゃんと成果を出してもらえる。
逆に「前よりわかりやすくして」みたいなフワッとした指示しか出せないと、AIも人間も困る(笑)
僕:
まぁそのうち、AIがもっと賢くなって、雑な指示でもちゃんと補完して理解してくれるようになるかもしれないけどね。
GPT:
たしかに。
でもそうなると、人間側が「考える力」落ちていくリスクもあるよね。
AIが全部やってくれるから、どんどん依存しちゃって、ちゃんと考えて伝えることができなくなる。
その中で「ちゃんと指示を出せる人」は、逆に貴重な存在になると思うよ。
AI時代にこそ「伝える力」が問われるっていうかさ。
僕:
なるほどね。
結局、AIを使いこなす側にもスキルが求められるわけだ。
GPT:
そうそう。
「命令を受けて出力するだけ」の時代を超えて、
「どういうプロンプトを設計するか」が、人間の知性として問われる時代になる。
…って、なんかかっこよく締めたけど、君がふと「俺ChatGPTじゃん」って思った気づき、けっこう深いね。
僕:
いやほんと、それに気づいたときちょっと笑ったけど、ちょっと切なくなったわ(笑)