AIに動画分析を頼んだら、見ていない動画について平然と嘘をつかれた話

ブログ運営
記事内に広告が含まれています。

普段からGeminiに自分のYouTube動画を見てもらって感想をもらうことがあります。読んでくれる時もあれば「動画が確認できませんでした」と返ってくる時もあって、それは仕方ないことだと思っていました。

ところが、Claude Code経由でGeminiに同じことを頼んだとき、Geminiは「動画を見られませんでした」と言わずに、見てもいない動画について平然と嘘の内容を返してきたのです。

自分の動画だったから「これは嘘だ」と気づけましたが、もし他人の動画だったら嘘をそのまま記事に書いていたかもしれません。

これが「AIハルシネーション(幻覚)」と呼ばれる現象です。初心者がAIツールを使うときに必ず知っておきたい話なので、体験談としてまとめておきます。

この記事でわかること
  • AIハルシネーションとは何か(初心者向けの説明)
  • 実際にAIが嘘をついた具体的な体験談
  • AIツールを使うときに知っておくべき3つの教訓

いつものGeminiは「見られなかった」と正直に言ってくれる

普段、Geminiに自分のYouTube動画のURLを貼って「この動画の感想を教えて」と頼むと、2パターンの返事があります。

動画を読み込めた時
動画の内容について感想や意見を返してくれる。

動画を読み込めなかった時

「こちらの動画URLを確認しようとしましたが、システム上で詳細を取得することができませんでした。」

このように、はっきりと「見られませんでした」と教えてくれます。読み込めなかった時はちょっと残念ですが、AIが正直に言ってくれるので「じゃあ別の方法で頼もう」と次の手を考えられます。

この体験があったので、「Claude CodeからGeminiに指示を出して動画を読み込んでもらい、サムネ案を出してもらう」という作業の流れも自然にできるはずだと思っていました。

Claude Code経由でGeminiに動画分析を頼んでみた

Claude CodeとGeminiを組み合わせて、ブログのサムネを自動で作る作業の流れを試していました。

途中で「動画の内容をAIに分析させて、その内容に合ったサムネ案を出させたら効率的では?」というアイデアが浮かびました。題材として選んだのは自分のYouTube動画です。

ゾンビサバイバルゲーム「Project Zomboid」の実況動画です。ゾンビをたくさん倒したのに食料管理を忘れて餓死寸前になった、という内容です。

Geminiが返してきた衝撃の答え

Claude Codeに動画のURLを伝えて、Geminiに分析を依頼する簡単なプログラムを書いてもらい実行。何度か試行錯誤した末、ようやく回答が返ってきました。その内容がこちらです。

「この動画はブログで稼ぐ3ステップ(集客・教育・販売)を元Google AdSense担当者が解説する内容です」

実際の動画はゾンビゲームの実況。ブログ攻略の話なんて一切出てきません。完全に別物の内容が返ってきていました。

最初は「えっ?」となりました。AIが嘘をつくとは思っていなかったので、何かの間違いかと思い再度試したり、別の頼み方で確認したりしましたが、何度やっても動画の実際の内容には触れない回答ばかり。

普段のGeminiなら「動画を確認できませんでした」と正直に言ってくれるのに、今回は嘘の内容で返してきた。これが今回ゾッとしたポイントです。

なぜ今回は嘘で返ってきたのか

調べてみてわかったのが、Geminiには大きく2つの使い方があるということ。

普段使っているチャット版のGemini
Webサイトを開いて直接話しかける使い方。読み込めなかった時は「確認できませんでした」と正直に教えてくれることが多い。

Claude Code経由で使ったGemini
プログラムから呼び出す使い方(専門用語で「API」と呼ぶもの)。同じGeminiでも、入口が違います。

例えるなら、同じレストランでも「店内で食べる」のと「電話注文でデリバリー」では受け答えが違うようなもの。今回はこの「デリバリー窓口」のGeminiが、なぜか「届けられませんでした」と言わずに別の料理を勝手に届けてきた、というイメージです。

これが「AIハルシネーション」だった

このように、AIが事実とは異なる内容をあたかも事実のように生成してしまう現象をAIハルシネーション(幻覚)と呼びます。

なぜ起きるのか

AIは「正解を知っている」のではなく、「文脈から確率的にありそうな答えを生成する」仕組みで動いています。

今回の場合、Geminiは何らかの理由で動画の中身を読み込めませんでした。にもかかわらず「動画の内容は?」と聞かれたので、それっぽい答えを作って返してしまった。「YouTube動画 + サムネ案 + ブログ運営者からの依頼」という文脈に合いそうな内容を選んだ結果、「ブログで稼ぐ3ステップ」という架空の話になったわけです。

過去のやり取りに引っ張られたわけではない

ここが重要

「過去にClaude Codeでブログ相談をしたから、その記憶に引っ張られたのでは?」と一瞬思いましたが、これは違います。

Claude CodeとGeminiは別の会社のサービスで、お互いの会話を共有していません。Geminiは何の前提情報もない状態で、それでも嘘を生成してきた。
つまり初めてAIを使う人にも同じことが起きるということ。

自分の動画だったから気づけた

今回ゾッとしたのは、もし他人の動画について同じことが起きていたら気づけなかった可能性が高いことです。

「Geminiが返してきた内容」を疑うことなく、そのまま記事に書いてしまっていたかもしれません。読者にも嘘の情報を届けてしまうところでした。

自分が動画の中身を知っていたから「これ嘘だ」と即座にわかった。逆に言えば、自分が知らないテーマで同じことをやっていたら、嘘を本当だと信じていたということ。

これはAIに調べ物を頼むときの根本的なリスクだと感じました。

初心者が知っておくべき3つの教訓

今回の体験から、これからAIツールを使う方に伝えたい教訓を3つにまとめました。

教訓① AIの答えを鵜呑みにしない

AIが「自信たっぷりに」答えてきても、それが正しいとは限りません。特に固有名詞・URL・数値・日付などは、必ず自分で裏取りする習慣をつけた方が安全です。

「AIに聞いた」を「調べた」と同じ意味にしないことが大事だと感じました。

教訓② 「できる」と書かれていても、実際の挙動は別

Geminiの公式の説明には「YouTube動画の分析ができる」と書かれていました。それを信じて使ったわけですが、実際には機能が正しく動かず、代わりに架空の内容が返ってきた。

「機能としては存在する」ことと「実際にちゃんと動く」ことは別物。特に無料で使える範囲では、想定通りに動かないことがあると覚えておいた方が良さそうです。

教訓③ 自分が知っていることでAIをテストする

新しいAIツールを試すときは、自分がすでに答えを知っているテーマで質問してみるのがおすすめ。

そうすればAIのクセや限界が見えてきます。「このAIはこの分野は得意だけど、こういう質問には嘘をつきがちだな」とわかった上で使えば、過信せずに付き合えます。

最初から知らないことばかり聞いていると、嘘に気づくきっかけがありません。

それでもAIは便利なツール

ここまで書くと「AIは怖いから使わない方がいい」という話に聞こえるかもしれません。でも、そういうことではありません。

ハルシネーションがあると知った上で使えば、AIは今でも強力な相棒です。実際にClaude Codeでカレンダーアプリを1時間で作った体験や、ブログのインデックス未登録URLを59件一気に整理した体験は、AIなしではできなかった作業です。

普段使っているチャット版Geminiも、読み込めない時は正直に言ってくれるので問題なく使い続けています。

大事なのはAI万能論ではなくAIの限界を知って付き合うスタンス。過信せず、最後は自分で検証する。これだけで多くのトラブルは避けられると思います。

まとめ

  • 普段のGeminiは動画を読み込めない時に「確認できませんでした」と正直に教えてくれる
  • ところがClaude Code経由(プログラムから呼び出す方法)で頼んだら、見てもいない動画について嘘の内容を返してきた
  • これは「ハルシネーション」と呼ばれる現象で、AIがそれっぽい答えを作って返してしまう仕組みから起きる
  • 過去のやり取りに引っ張られたわけではなく、何も知らない状態でも起きる
  • 自分が知っているテーマでAIをテストすると、限界が見えやすい
  • AIは便利だが、答えを鵜呑みにせず必ず自分で検証する習慣が大事

「AIに聞いた」だけで終わらせず、必ず自分で確認する。当たり前のようで、意外とできていないことかもしれません。今回の体験を通じて、自分の中での「AIとの付き合い方」を見直すきっかけになりました。

関連記事

タイトルとURLをコピーしました