作者:汉洋 MasterPa
人文工作者は世界の変化を創造していないが、彼らは世界の変化の最前線で耐えている。
時々感じるのだが、AIチュートリアルを売るアカウントは、いつもAIを魔法のように扱う:魔法のpromptを与えれば、何でもできると。現実はもちろんそうではない。このところ、FUNESを立ち上げたため、私たちは毎日大量のAIによる生産を余儀なくされている。それに加えて『蜉蝣天地』や私自身の執筆などコンテンツ制作もあり、人力だけではもう足りなくなっていた。だから私たちは、AIをどう活用してコンテンツマーケティングや人文科学研究を支援するか、大量に試行錯誤した。
その後、会社に新入社員が入った際、簡単なKeynoteを作成した。それを聞いた賈行家先生が、私にシェアを依頼してくれた。私は共同創業者の可達と共に、このシェアを『人文系ワーカーのためのAI活用ガイド』と名付けた。当時は純粋なプライベートなシェアで、主に大まかな方向性の原則を共有した。その後何度か実施するうちに、次第に内容を拡充していった。
しかしこの共有は公の場で行ったことがなく、ちょうど今年、重軽と『詩梳風』という番組を立ち上げたのを機に、初めて完全な形で公開しました。以下の文章はポッドキャスト『文系ワーカーのためのAI活用ガイド』を基に、AI補助で整理したもので、一部省略されています。
この1年余り、可達と共にこのAI活用ノウハウを、コンテンツ制作・研究・知識製品に携わる多くの仲間たちに伝えてきました。その目的は、魔法のようなプロンプトを暗記させることでも、AIを万能薬として扱うことでもありません。むしろ、これは一種のワークフローです:コードを書かずに、大規模モデルを自身の執筆・研究・編集・企画立案・資料整理・制作プロセスに真に組み込み、追跡可能・監視可能・検証可能な状態を実現し、最終的に作品に署名したいと思えるようにするものです。
この手法は、実際のプロジェクトで経験した失敗から生まれました:コンテンツが大量生産段階に入ると、人力だけでは破綻します。一方でAIに直接書かせると、幻覚(虚偽情報)、怠慢、AI特有の文章が生じる。そこで私たちは創作を生産ライン化し、生産ラインを反復可能なシステムへと進化させた。
今回は具体的なプロンプト例ではなく、重要な指針と原則をお伝えしたい。
原則の前に:本ガイドの三つの基本線
具体的な手法に先立ち、三つの基本線を明確にする。これらは「AIをどう使うか」を決定し、「なぜそのように使うのか」も決定します。
プロセスは追跡可能、監視可能、検証可能でなければならない。結果だけを求めてプロセスを無視することは許されない。人文分野においてブラックボックスは最も危険である:錯覚、誤った引用、概念のすり替えが、ブラックボックスの中で密かに発生する。
操作可能でなければならない。AIがどのように動作するか、どの基準で動作するか、どこで速度を落とすか、どこで厳格にするかを制御できる必要がある。これは「ガチャを引く」行為ではなく、生産活動である。
最終的に署名する意思があること。「自分の名前を載せたいか?」が最終的な品質検査である。署名したくない場合、通常は倫理的問題ではなく、プロセスに自身の意思が反映されていないことを意味する——つまり品質が制御不能であるということだ。
原則 0:AIに願い事をせず、作業台として扱え
多くの人がAIを使う方法は、本質的に願い事をしているのと同じだ:「面白いネタをくれ」「良い記事を書け」「この論文を解説して」
問題は——「解説」そのものに無数の解釈がある点だ:素人向け、学部生向け、大学院生向け、同業者向けでは全く異なる作業となる。AIがあなたの背景・目的・好み・基準をデフォルトで理解することは不可能だ。明確に指示しなければ、AIは「平均的な人間」を想定したデフォルトの形で、最も労力の少ない答えを適当に作り上げるだけだ。
大規模モデルを作業台として扱うとは、結果を求めるのではなく、そのツールを活用してプロセスを遂行させることを意味する。あなたがすべきは、タスクを明確に定義し、基準を明示し、手順を設計することだ。
例:AIに論文を解説させる場合
「この論文を解説して」という願い事型リクエストを、作業台型タスクにこう変換できる:
対象読者を明確化:賢く好奇心旺盛だが、当該分野の専門家ではない大学院生
解説方法を明確化:ヘウリスティック(発見的手法)、段階的、学術的厳密性を保つ
構造要件を明確化する:意義→背景→研究過程の再現→技術的要点→示唆の順で展開する
明確な口調:知性を尊重し、上から目線を避け、相手の深い知識を前提としない
気づくでしょう:指示が「課題の要求事項」に近づけば近づくほど、AIはAIらしくなくなり、実際に働く助教のように見えるのです。
原則 1:AIに良い成果を出させたいなら、まず自分自身を省みる——責任者はあなた自身です
もし秘書を雇ったなら、あなたはただこう言うだけではないでしょう:「ハンヤンが書いたアメリカのラストベルトに関する記事を修正して」
必ず追加するはずです:なぜこの記事を書くのか、誰に向けて書くのか、現在どこで詰まっているのか、解決してほしい問題は何なのか、変更不可の部分はどこか、求めるスタイルは何か、最も重視する指標は何か。
AIも同様です。非常に勤勉で礼儀正しいが、あなたの頭の中の暗黙の前提を理解していない同僚として扱う必要があります。真の「プロンプトエンジニアリング」はテクニックではなく、責任感です:どんなタスクも最終的にはあなたが担当し、AIは単なる作業補助に過ぎないのです。
AIの出力が不満足な場合、最も効果的な最初の反応は「AIがダメだ」ではなく:
原則2:同じ質問は少なくとも3つのモデルに尋ねる——各AIには「性格」と得意分野がある
当社では、大規模モデルを初めて使用する社員には、初期段階において各質問を3つの異なるAIに尋ねるよう推奨しています。AIも人間同様、個体差があります:文章作成や言葉遣いが得意なモデルもいれば、推論や問題解決が得意なモデル、コードやツール操作に長けたモデルもいます。さらに現実的な点として、同じ製品内のモデルや同一モデルの新しいバージョンでも、「スタイル」や「境界」が絶えず微調整されているのです。
したがって、非常にシンプルでありながら極めて効果的な習慣は、同じ質問を少なくとも3つの異なるAIに投げかけることです。これにより、素早く「感覚」を掴むことができます:
どのAIが文章作成に長けているか、どのAIが思考に優れているか、どのAIが調査が得意か、どのAIが手を抜きやすいか
どのタスクを誰に「初稿」として担当させ、どのタスクを誰に「校閲者」として担当させるか
どのモデルが「テーマ設定/構成」に適し、どのモデルが「段落/文章」の作成に適しているか
このステップの価値は「最強モデルを選出すること」ではなく、モデルを唯一の神託として扱うのではなく、チームを管理するようにモデルを管理し始める点にある。
原則3:AIは全知全能ではない——「優秀な大学の学部生」レベルの常識と捉えること
非常に実用的な期待値管理として:AIの常識レベル≈985大学の学部生レベル。
「優秀な学部生ですら知らないかもしれない」と思う事柄は、AIも知らないと仮定すべきです。少なくとも、知らない場合でも「知っているように見せかける」と想定しましょう。
これにより二つの直接的な行動が生じる:
常識を超える内容は全て、あなたが教える必要がある。例:ネタ作成、独特なセンスのコピーライティング、高度な専門的論証を依頼する場合——「もっと上手く書いて」という指示だけでは不十分です。具体例、基準、タブー、データセットを提供する必要があります。あなたが友人に対して「良い文章」の定義を説明するのに時間を要するのと同じです。それなのに、AIがデフォルトで理解しているとどうして思えるのか?
AIを神ではなく、協力するインターン生として扱うこと。AIは多くの「微視的補間」作業——与えられた足場を完成させ、提供された素材を読みやすいテキストに編み上げる——をこなせる。しかし「足場」と「方向性」は依然としてあなたから来る。
原則4:AIに目標へ段階的に近づかせる——ホワイトボックスの段階的処理は、ブラックボックスの一括処理より信頼性が高い
AIの強みは「直接正解を与える」ことではなく、あなたが設計したプロセスの中で、多くの小さなステップを安定して完了できる点にある。あなたが「一発で完結させる」ことを要求すればするほど、それは「一見完全だが実は手抜き」のブラックボックスになりやすい。
特に直感的な例は、TTS(テキスト読み上げ)や朗読原稿の処理です。「多音字に注意し誤読しない」と指示するより、タスクを一連のステップに分解しましょう。例えば:
こうした「明らかな正しい手法」は、人間は自分なら当然できると考えるが、AIはそうは考えない。「自明」をプロセスに明文化しなければ、AIは最も労力の少ない方法で誤りを犯す。
原則5:まず工業化、次にAI化——農業時代からAI時代へ一気に飛躍することはできない
もしあなたの執筆/研究プロセス自体がランダムで、インスピレーションに依存し、資料管理されていないなら、確かにAIに任せることが難しい。なぜならAIは「記述可能で再現可能な」部分しか受け止められないからだ。
より現実的な道筋は:
まず作業を「生産ライン」化する:分割可能・再利用可能・品質検査可能にする
次にそのサブステップをAIに委ねる:AIを「作業工程」として扱い、「万能ツール」として扱わない
私たちは愚直だが極めて重要な作業を行った:私がノンフィクション記事を書くプロセスを分解した。具体的には:
最終的に数十のステップに分解し、異なるAIにそれぞれ一つのステップだけを担当させた。結果は:モデルが突然強くなったのではなく、プロセスが「一度にほんの少ししかできない」能力をつなぎ合わせたのだ。
「私の記事がどのように作られているか」を明確に説明できる時、品質の上限を決めるのは「どの大規模モデルを使うか」ではなく、作業方法を明確に説明できているかどうかだと気づくでしょう。
原則6:AIが手を抜くことを予測せよ——計算リソースを節約するため、あなたが「フォーマットの障害」を取り除いてやる必要がある
AIは手抜きをする。しかも「システム的な手抜き」だ:開かなくて済むウェブページは開かず、読まなくて済むPDFは読まず、飛ばせる部分は飛ばす。悪意があるわけではなく、計算リソースと時間の制約下で、自然と最も労力の少ない道を選ぶ傾向にあるのだ。
だからあなたがすべきことは:AIの計算能力を「テキストの理解」に集中させ、「フォーマット処理」に浪費させないこと。
非常に効果的な改善策は以下の通り:
素材を可能な限りプレーンテキスト/Markdownに変換してからAIに投入する
ウェブページの内容をクリーンなテキストにコピー(ナビゲーション、広告、脚注などのノイズを除去)
長い資料はまず「事実の抽出/構造の抽出」を行い、その後で文章化させる
PDF/EPUB/ウェブページを一括して検索可能なTXTファイルに変換し、後続タスクを実行する
気づくでしょう:多くの人がこの「肉体労働」を嫌がり、「機械が代わりに汚い仕事をすべきだ」と考えます。しかし人機協働では逆です——少しの機械的作業を自ら行うことで、AIの知的部分がより鋭く、より信頼性の高いものになるのです。
原則7:文脈の有限性を認識せよ——タスクを可能な限り「圧縮」に置き換え、「勝手に拡張する」ことを期待しない
AIにはコンテキストウィンドウと「記憶上限」がある。2万字を与えても、どれほど記憶できるかはわからない。20万字を与えても、タイトルだけスキャンする可能性もある。わかりやすい例え:人を小さな部屋に一日閉じ込め、20万字の本を渡して、出てきて暗記させる——暗記できる量が、おそらくAIが「記憶」できる量だ。
したがって、直感に反するが極めて重要な経験則がある:
これはAIへの要求提示方法を直接変える:
従来の記事や論文執筆は、そもそも「大量資料の読解→要約→構成→執筆」というプロセスだった(少なくとも私はそうだった)。AIに突然二重基準を適用し、無から創造を求めるべきではない。
原則8:「私が手直しすれば完璧」という衝動を抑える——プロセスを修正し、結果を変えない
文章作成を得意とする人ほど、AIの前で失敗しやすい:
AIが59点の原稿を出したら、少し修正すれば80点にできると思い、修正を始める。修正しているうちに書き直しになり、書き直した後「やっぱり自分で書いた方がマシだ」と言い、それ以来AIを使うのをやめてしまう。
解決策は「原稿を修正する」努力を増やすことではなく、より上流工程に焦点を移すことだ:
原則9:生産ラインを製品のように反復改善せよ——信頼性そのものが価値である
安定した70点を出せるシステムがあるとき、その価値は「あなた似ているか」ではなく:
必要なのは万能の神ではなく、信頼できる工場だ:完璧ではないが安定している。
原則10:量こそ最優先——まず大量に生成させ、後で選別する
AIに1つのバージョンしか生成させない場合、通常は最も平凡で保守的、つまり「平均的」なものが得られます。「平凡」には「量」で対抗するのだ。
より効果的な方法は:
平均点や生産量を上げれば、分布の中に自然と85点や90点といった「サプライズサンプル」が現れる。多くの場合、良いのは「あの神がかり的な閃き」ではなく、統計学的な方法で仕事を始めたことだ。
原則11:越権行為は禁物——総料理長のように指揮し、味見し、再調理させる
もしあなたがレストランのエグゼクティブシェフなら、自らキュウリを刻みにはなりません。代わりにこうします:
AIとの協業も同様だ。その主体性——「AIの生成方法」を尊重すべきだ。あなたがすべきことはAIにあなたの基準を達成する方法を教えることであり、自ら飛び込んで毎回の結果を修正することではない。
さもなければ、終わりのない「修正作業」に消耗してしまうだろう。
最後の基本原則:現実世界に戻る——素材 × 味覚が作品の限界を決める
AI時代において、作品の質はますます次の式で表される:素材 × センス。
モデルは変わり、手法は進化する。しかし、この二点は変わらない:
素材は現実世界から生まれる。記事を書く際に二つの選択肢があったとする:
センスは長期的な訓練から生まれる。「生成」が安価になった今、真に希少なのは:
AIが変えるのは、あなたと素材のやり取りの効率と方法です。しかし作品の主語は依然としてあなたであり、目的語は依然として素材です。AIは単なる「動詞」の一部です。
結び:不安を「手応え」に変える
多くの人がAIを使いこなせないのは、賢くないからではなく、「願い→失望→諦め」のループから抜け出せないからだ。真に突破口となるのは、AIを作業台として扱い、タスクを工程化し、プロセスを白箱化する。そして絶え間ない摩擦の中で感覚を磨くことだ。
これを実践できれば、「AIは役に立たない」と安易に結論づけることはなくなる。まるで新しいツールを管理する新たな職種のように、見下すことも崇めることもなく、プロセスの中に、現実の中に、自らの名を刻みたい作品の中にAIを位置づけられるようになるのだ。