Claude Code / Codex が求める「承認」は、ウイルス感染対策ではない。「成果物のズレ」とは別レイヤーの「作業権限のリスク」を整理する。
Claude Code / Codex で求められる「承認」は、プロンプト設計で防ぐ『成果物のズレ』とは別のレイヤーのリスクを扱っている。具体的には「AI が PC のファイル・外部ツール・公開設定にどこまで触ってよいかの判断」であり、ここを誤ると、成果物がズレるだけでなく ファイルが壊れる・情報が漏れる・危険なものが PC に入る といった実害が発生する。
「AI にプロンプトで意図を正確に伝えれば安全」という理解は、半分しか合っていない。**残り半分の論点が、この承認プロセス**である。
Style: warm hand-drawn editorial illustration, soft beige background #FAF8F4.
Accent colors only: deep red #8B2635, teal #5BA89E, warm gold #B8985A.
No text anywhere in the image. 16:9 aspect ratio.
Subject: A horizontal two-panel comic-style illustration showing a child
asking an AI helper for the same task ("build a doghouse"), but illustrating
two different kinds of risk.
LEFT PANEL ("Outcome drift"):
A child hands a paper drawing of a doghouse to a stylized robot assistant.
The robot returns holding a finished birdhouse (looks similar but clearly
different). The child looks puzzled. Warm teal color tone.
Single focus: the END RESULT is wrong.
RIGHT PANEL ("Work-authority risk"):
Same child, same starting drawing. But this time, while building, the
robot is opening the family toolbox without permission, holding an
electric saw, and carrying a bag of unknown glue from outside. Tools
are scattered. A small alarm icon hovers above. Warm red color tone.
Single focus: things happen DURING the work, not at the end.
A thin vertical divider separates the two panels. Below both panels,
a single thin warm-beige ribbon connects them, suggesting "two sides
of the same activity." Soft shadows, slightly grainy texture. Not
cartoonish, not photorealistic — editorial illustration quality.
このページの中心となる対比です。同じ「AI に作業を頼む」というシーンでも、ズレが起きる場所と原因がまったく違います。
| 観点 | ① 成果物のズレ (市来先生の懸念) | ② 作業権限のリスク (MT 側が説明したいこと) |
|---|---|---|
| 何がズレるか | 完成物・設計・文章・アプリの方向性 | 実際の作業操作・ファイル・権限・外部接続 |
| 主な原因 | プロンプト設計、意図共有不足 | 承認判断、権限付与、外部コード実行 |
| 起きる問題 | 「思っていたものと違う」 | 「消える・壊れる・漏れる・危険なものを入れる」 |
| 例えるなら | 料理の味が注文と違う | 包丁や火の扱いを任せる |
| 防ぐ手段 | プロンプト設計、途中での意図確認 | 承認プロセス + 判断基準ガイドライン |
| 言い換え | 「何を作るか」のズレ | 「どう作るか」の途中で起きる危険 |
どちらも大事です。市来先生の理解は間違っていない — ただし、それだけだと半分しかカバーできていません。残り半分が「作業権限のリスク」です。
Claude Code は、ただ文章を作る AI ではありません。場合によっては、PC の中のファイルを読んだり、書き換えたり、外部からツールを取ってきたり、コマンドを実行したりします。
そのため、作業の途中で、以下のような確認を出してきます。
これらの確認が「承認」です。ただし、ここで本当に大事なのは:
承認があるから安全なのではなく、承認する人が意味を理解して判断できて初めて安全に近づく
という点です。これがリスクの4位「承認の意味を理解せずに OK してしまうリスク」(後述)にあたります。
Claude Code を使ったことがない方向けに、簡単な架空のシーンで説明します。どの事例も「プロンプトの上手い下手」とは別の次元の話です。
こんな依頼をしたとします。
Claude Code が途中でこう聞きます。
ここで何も考えずに「OK」すると、次のようなことが起こり得ます。
これは 「意図と違う成果物」ではなく、AI が実ファイルに一括操作をかけることを人間が許可してしまったリスクです。市来先生の懸念は「思った方向と違うものができる」。MT 側の懸念は「思った方向と違うだけでなく、実データそのものが書き換わる」です。
Claude Code がこう言ったとします。
初心者から見ると「便利な道具を入れるだけなら OK かな」と思いやすいです。でも実際には、その操作には次のリスクがあります。
ここでのリスクは「画像の仕上がりが思ったものと違う」ではありません。PC に外部のものを入れることを許可するリスクです。プロンプトの上手い下手とは別問題です。
こんな依頼をしたとします。
Claude Code が途中でこう聞きます。
ここで承認すると、場合によっては以下が起こり得ます。
この場合も、市来先生の言う「デザインや構成が思ったものと違う」とは違います。MT 側が見ているのは 「外部に出してよいもの・出してはいけないものの判断を、作業中に何度も求められるリスク」です。
「リスク」をウイルス感染だけと捉えると狭すぎます。実際は3つのカテゴリに分けて考えるのが正確です。
AI が PC・ファイル・Web・外部ツールに触ることで起きるリスク。
例: ファイル削除、上書き、危険なコードの取得、不要な権限付与、API キー流出。
人間が何を承認したのか理解しないまま進めてしまうリスク。
例: 「OK」を押したが、実際には大量ファイルの変更だった。「インストール」を許可したが、何を入れたのか分からない。
完成したアプリ・サイト・資料を外部に出したあとに起きるリスク。
例: ログイン管理が甘い、個人情報が見える、更新手順が属人化する、トラブル時に戻せない。
リスクの正確な定義: AI エージェントに作業を任せることで、ファイル・権限・外部接続・公開物・責任範囲に予期しない影響が出る可能性。「ウイルス感染の危険」は、このうちのごく一部にすぎない。
「ウイルス感染」だけに絞ると見落とすリスクを、関連可能性が高い順に並べました。市来先生のような「AI に前向きだが Claude Code は未経験」の方が、まずどこを認識しておくべきかの地図として使えます。
| 順位 | リスク | 何が危ないのか |
|---|---|---|
| 1 | PC 内ファイルの改変・削除リスク | AI がローカルファイルを直接編集することで、教材・コード・設定ファイルが意図せず壊れる・消える・上書きされる |
| 2 | 外部から取得したツール・コードによる感染リスク | 作業に必要なライブラリ、拡張機能、スクリプトをオンラインから取得する過程で、悪意あるコードや危険な依存関係を取り込む |
| 3 | 権限を与えすぎるリスク | AI に「ファイル編集」「コマンド実行」「外部アクセス」「ダウンロード」をまとめて許可すると、人間が把握しないまま大きな変更が進む |
| 4 | 承認の意味を理解せずに OK してしまうリスク | AI が「この操作をしてよいですか」と聞いても、ユーザー側が意味を理解しないまま承認すると、責任ある判断にならない |
| 5 | 意図と違う方向に作業が進むリスク | AI が目的を誤解したまま、コード修正・構成変更・ファイル生成を進め、後から戻すのが難しくなる(これが市来先生の懸念に最も近い) |
| 6 | 変更履歴・判断理由が残らないリスク | 何を、なぜ、どの判断で変更したのか分からなくなり、トラブル時に原因追跡できない |
| 7 | バックアップなしで不可逆な作業をするリスク | 正常な状態に戻せない。特に大量ファイル、教材原稿、PDF、サイト構成、GAS などで致命的になりやすい |
| 8 | 公開物・アプリのセキュリティ不備リスク | 作ったアプリやサイトに認証不備、権限管理ミス、データ漏洩の穴が残ったまま公開される |
| 9 | 個人情報・機密情報の流出リスク | ローカルファイル、顧客情報、学校資料、API キー、Google 連携情報などが外部サービスやコードに渡る |
| 10 | 外部サービス連携による責任範囲の拡大リスク | Google Drive、GitHub、Cloudflare、Notion、LINE、決済サービスなどとつながるほど、ミスの影響範囲が広がる |
| 11 | 成果物の品質保証を AI 任せにするリスク | 見た目は動くが、裏側の設計・セキュリティ・例外処理・運用性が不十分なまま |
| 12 | 判断基準が属人化するリスク | 1人だけが分かっている状態だと、他の人が同じ判断を再現できない |
AI に「工作を手伝って」とお願いしたとします。
犬小屋を作ってほしかったのに、鳥小屋みたいなものができた
これは 最終的にできあがるものの話です。注文と違う料理が出てくるイメージ。プロンプトでもっと細かく指示すれば防げる可能性が高いリスクです。
作っている途中で、勝手に家の工具箱を開けたり、電動ノコギリを使ったり、知らない接着剤を買ってきたりしてよいか
これは 作業の途中の話です。完成形が合っているかどうか以前に、過程で家や PC や個人情報を傷つけてしまう可能性。プロンプトでは防げない、別レイヤーの判断が必要です。
どちらも大事ですが、危険の種類が違うのがポイントです。
市来先生にお伝えするなら、こういう順番で話すのが自然だと思います。
先生のおっしゃる「意図と違うものができるリスク」も確かにあります。
ただ、私がここで言っている承認プロセスは、それとは少し別です。
Claude Code は、文章を作るだけでなく、PC 内のファイルを書き換えたり、外部ツールを入れたり、公開設定を触ったりすることがあります。
そのため、途中で「この操作をしてよいですか?」と聞かれます。
ここで意味を理解せずに OK すると、成果物がズレるだけでなく、ファイルが壊れる・情報が漏れる・危険なものを入れる、といった問題が起こり得ます。
だから私は、プロンプトの設計だけでなく、「どの操作を承認してよいか」の判断基準を作ろうとしています。
この言い方なら、市来先生の理解を否定せずに、本当の論点へ自然に橋渡しできます。「商用 SaaS と遜色ない設計」と表現してくださった部分も、実はこの判断基準のストック・ナレッジ化にあたります。
結論として、「承認プロセス」はプロンプト設計の延長ではなく、責任分界の設計です。AI に何をしてよいかを毎回人間が決める仕組みであり、ここをすっ飛ばすと、いま炎上している AI アプリ案件と同じ轍を踏みます。
manuals/ai_safety_xxx.html として子ページ化)