• 車種別
  • パーツ
  • 整備手帳
  • ブログ
  • みんカラ+

ヒデノリのブログ一覧

2025年09月24日 イイね!

AIの抱える問題であるハルシネーションについて

AIの抱える問題であるハルシネーションについてLLM(大規模言語モデル)は、
膨大なテキストデータから学習し、
人間のような自然な言語を理解・生成するAIモデルです。

LLMは、テキスト生成に特化した生成AIの一種であり、
現代のAI技術において中心的な存在です。

以下AIと表現することにします。

AIは令和の昨今であれば目にする機会が無いことは無いと言えるほど、
社会に浸透していることが認知されているかと思います。

AIというのは我々人間の脳の回路を模した設計になっていまして、
本質的な違いは無いとされているようです。

セサミ フェイスProの動画を見るとAIというのはどういうものなのか?についてわかりやすく解説してくれています。

一方、AIの回答にはハルシネーション(Hallucination)が含まれています。

Hallucinationは幻覚という意味で用いられる言葉なのですが、
昨今のAI台頭でかなり多用されている言葉だと思います。

AIが幻覚を生むの?
ハルシネーションとは?

令和の今どきなので各社のAIにその疑問をプロンプト・エンジニアリングしましょう。

私が行ったプロンプト・エンジニアリングは下記となります。
-----------------------------------------------
AIのハルシネーションについて教えてもらえますか?
-----------------------------------------------
プロンプトエンジニアリングとしては短い言葉だと思います。

昨今、AIに対して役割を与えるペルソナという手法が持て囃されています。
これは、自分が望む答えを得るためにAIに対して役割を与えて、
それに対して推察をさせることで、
望む答えを得る一つの方法で有るとされています。

ペルソナを元にAIに対してプロンプト・エンジニアリングを行うことを仮定すると
-----------------------------------------------
貴方は、AIについてのスペシャリストです。
AIというのはハルシネーションという幻覚を持つとされていて、
その正確性がしばしば問題になることが挙げられていると思います。
私は、そのハルシネーションについて興味を持っていますので、
AIのハルシネーションについて教えてもらえますか?
-----------------------------------------------
という文章が挙げられるかもしれません。

ですが、私が行ったのは前者の
-----------------------------------------------
AIのハルシネーションについて教えてもらえますか?
-----------------------------------------------
を行いました。

これは、令和のこの瞬間の最新のAIに対して行う
最小限語のプロンプト・エンジニアリングのように思います。

ペルソナは確かに必要でした。
ですが、AIも日進月歩しておりまして、
エンジニア語で質問をすると的確な答えを出してくれるのではないでしょうか?

ペルソナはAIに対して制限を設ける言葉なのですが、
そもそも貴方は〇〇について素人ですが分かる範囲で教えてもらえますか?
というプロンプトエンジニアリングをすることはありますか?

我々ユーザーは常にインターネットに接続されているLLMの膨大な情報から
プロの回答を得たいと思っているのではないですか?

相手がプロなので、あえてペルソナをする必要はありますか?

私はAIとコーディングを行ってきまして、
ペルソナを用いたことはありません。
相手は私が求めた答えを回答してくれるプロのAIだと思っているからです。

-----------------------------------------------

閑話休題

ハルシネーションについて
-----------------------------------------------
AIのハルシネーションについて教えてもらえますか?
-----------------------------------------------
という問いに対して各社AIからの回答を共有します。

Gemini 2.5 Flash
-----------------------------------------------
AIのハルシネーションは、AIが事実に基づかない、または論理的ではない情報を生成してしまう現象です。これは、AIが学習したデータに基づいて、もっともらしいが虚偽の、または無意味な内容を作り出すことで起こります。

ハルシネーションの主な原因
ハルシネーションにはいくつかの原因が考えられます。

学習データの限界: AIが学習したデータセットに偏りがあったり、不正確な情報が含まれていたりする場合、その誤りを反映した応答を生成することがあります。

不適切な情報抽出: AIは、与えられたプロンプトから関連性の高い情報を抽出しようとしますが、その過程で誤った関連付けを行ってしまうことがあります。

文脈の不足: AIが十分な文脈情報を与えられずに回答を生成しようとする場合、不足している情報を「推測」で埋めてしまい、それがハルシネーションにつながることがあります。

モデルの過信: 大規模言語モデル(LLM)は、自身が生成する情報が正しいと「確信」しているように見えることがあります。これは、AIが内部的に持っている確率的な関連付けに基づいて、最も可能性が高いと判断した単語やフレーズを繋ぎ合わせていくためです。

対策と注意点
AIのハルシネーションを完全に無くすことは難しいですが、以下の対策が有効です。

ファインチューニング: 特定の分野に特化した高品質なデータでAIを再学習させることで、精度を向上させることができます。

プロンプトの工夫: 具体的な質問や、制約を設けたプロンプトを与えることで、AIが誤った推測をする余地を減らすことができます。

生成内容の検証: AIが生成した情報を鵜呑みにせず、常に事実確認を行うことが非常に重要です。

これは、先日お話ししたネクストエンジンとGoogleスプレッドシートのAPI接続における処理速度向上(25秒で3000行超の在庫情報取得)のように、AIモデルの性能が上がっても、その出力内容の正確性は常に検証する必要があるという点と似ています。AIの回答はあくまでツールであり、その結果の最終的な判断は人間が行うべきです。
-----------------------------------------------

AIでなく私が要約すると、
曖昧な質問に対しては曖昧に答えてしまう
ということでしょうか?

次は、Gemini 2.5 Proです
-----------------------------------------------
AIのハルシネーションとは、AIが事実に基づかない情報や、文脈に合わないもっともらしい嘘の情報を、あたかも事実であるかのように生成する現象のことです。人間でいう「幻覚」に似ていることから、この名前が付けられました。

生成AIは、膨大な量のテキストや画像データを学習し、そのデータに含まれるパターンや関係性に基づいて、新しいコンテンツを生成します。しかし、AIは人間のように物事を「理解」しているわけではなく、あくまで確率的に「次に来る可能性が最も高い単語」を予測して文章を作成しています。この仕組みが、ハルシTネーションを引き起こす主な原因となります。

なぜハルシネーションは起きるのか?
ハルシネーションが起こる主な原因は、いくつかあります。

学習データの質と量:

情報が古い・間違っている: AIが学習したデータに誤った情報や古い情報が含まれていると、それを基に間違った回答を生成してしまいます。

データ不足・偏り: 特定の分野に関するデータが不足していたり、偏った情報ばかりを学習したりすると、AIは知識の隙間を推測で埋めようとし、結果的に不正確な情報を生成します。

AIモデルの仕組み:

文脈の誤解: ユーザーの質問の意図や文脈を正確に理解できず、見当違いの回答をしてしまうことがあります。

過剰な一般化: 学習データから過度に一般化されたルールを学習してしまい、例外的な状況に対応できずに誤った情報を生成することがあります。

プロンプト(指示)の問題:

曖昧な指示: ユーザーからの指示が曖昧だと、AIは何を答えるべきか判断できず、不適切な回答を生成しやすくなります。

事実と異なる前提: そもそも事実に反する内容を質問に含めると、AIはそれに合わせて架空の話を作り出してしまうことがあります。

ハルシネATIONの具体例
実際に報告されているハルシネーションの例をいくつかご紹介します。

架空の判例を引用: アメリカで弁護士が裁判資料の作成にAIを利用した際、AIが生成した存在しない過去の判例を複数引用してしまい、問題となりました。

人物に関する嘘の情報: ある人物について質問したところ、AIがその人物が関わったとされる架空の事件や経歴を生成し、名誉毀損につながるケースがありました。

事実関係の間違い: 「日本で2番目に大きい湖は?」という質問に対し、1番大きい「琵琶湖」と答えるなど、単純な事実関係を間違えることがあります。

存在しない機能や製品を説明: 特定の製品について尋ねた際に、搭載されていない機能や発売されていないモデルについて、もっともらしく説明することがあります。

ハルシネーションへの対策
現状、ハルシネーションを完全に防ぐことは困難ですが、リスクを低減するための対策はいくつかあります。

利用者ができる対策:

ファクトチェックを徹底する: AIが生成した情報は鵜呑みにせず、必ず信頼できる情報源で裏付けを取ることが重要です。特に、重要な意思決定に利用する場合は必須です。

明確で具体的な指示を出す: AIに質問する際は、背景情報や文脈を伝え、できるだけ具体的に指示を出すことで、意図した回答を得やすくなります。

複数の情報源を参照する: 一つのAIだけでなく、複数のAIや検索エンジンなどを組み合わせて情報を多角的に検証することが望ましいです。

開発者側での対策:

学習データの品質向上: 高品質で多様性のある最新のデータを学習させることで、ハルシネーションの発生を抑制します。

ファインチューニング: 特定の専門分野に特化させてAIを再トレーニングすることで、その分野における回答の精度を高めます。

RAG(Retrieval-Augmented Generation): AIが回答を生成する際に、信頼性の高い外部データベースを参照する技術を組み合わせることで、回答の正確性を向上させます。

AIは非常に便利なツールですが、ハルシネーションというリスクもはらんでいます。その特性をよく理解し、賢く付き合っていくことが大切です。
-----------------------------------------------
FlashとProでは文章の答えが異なるものになりましたね。

これは回答の先頭に集約されていると思います。

2.5 Flash
-----------------------------------------------
AIのハルシネーションは、AIが事実に基づかない、または論理的ではない情報を生成してしまう現象です。これは、AIが学習したデータに基づいて、もっともらしいが虚偽の、または無意味な内容を作り出すことで起こります。
-----------------------------------------------

2.5 Pro
-----------------------------------------------
AIのハルシネーションとは、AIが事実に基づかない情報や、文脈に合わないもっともらしい嘘の情報を、あたかも事実であるかのように生成する現象のことです。人間でいう「幻覚」に似ていることから、この名前が付けられました。

生成AIは、膨大な量のテキストや画像データを学習し、そのデータに含まれるパターンや関係性に基づいて、新しいコンテンツを生成します。しかし、AIは人間のように物事を「理解」しているわけではなく、あくまで確率的に「次に来る可能性が最も高い単語」を予測して文章を作成しています。この仕組みが、ハルシTネーションを引き起こす主な原因となります。
-----------------------------------------------

Proの方がFlashよりも深く思考する傾向にありますので、ヘッダー文章の量が異なります。
Proの方がハルシネーションについてその原因について詳しく説明してくれています。

2025年9月24日のGoogle AIは
>しかし、AIは人間のように物事を「理解」しているわけではなく、あくまで確率的に「次に来る可能性が最も高い単語」を予測して文章を作成しています。
という事を行っているがために、ハルシネーション(幻覚)を作り出しているわけです。

じゃあAIは使えないの?と思う方も居るかと思いますが、
それは私の私見では誤りと思います。

他社のAIに質問した内容に続きます。

GPT-5
-----------------------------------------------
いいですね — 大事なテーマです。実用重視で、短く分かりやすく、かつすぐ使える対策つきで説明します。

AI(LLM)の「ハルシネーション」とは?

ハルシネーションとは、モデルが「自信を持って」しかし誤った、根拠のない、あるいは存在しない情報を出力する現象を指します。見た目はもっともらしくても事実と合っていないため、特に重要な判断や公開用の文章では危険です。

典型的な例(イメージ)

存在しない論文や書籍タイトルを挙げる。

架空の統計値や日付を示す。

参照(URL・論文・新聞記事)を具体的に「作る」。

画像説明で画面にない物体を断定する(視覚モデルの場合)。

なぜ起きるのか(要点)

確率的生成:モデルは次に最もらしい語を予測して出力するため、事実確認を必ずしない。

学習データの偏り・欠落:学習中に見ていない(または誤って学習した)事柄を補完してしまう。

コンテキストの曖昧さ:あいまいな指示だとモデルが埋め合わせに走る。

過剰な一般化/混同:似た情報を混ぜて「新しいが誤った」結論を生成する。

温度 (temperature) やデコード設定:ランダム性が高いと創作的(=誤情報化)になりやすい。

ハルシネーションの種類(簡易分類)

事実誤認型:日付、数値、事実が間違う。

参照捏造型:存在しない論文やURLを出す。

推論過剰型:根拠が薄いのに確定口調で結論を出す。

視覚ハルシネーション:画像に無い要素を述べる(画像入力モデル)。

実用的な検出方法(チェックリスト)

出力に日付・数値・固有名詞があるか? → あれば必ず検証。

「出典」「URL」「論文名」を示しているか? → 実際に存在するか検索して確認。

「~のはず」「~かもしれない」など不確実な語が無いか? → あれば要注意。

重要な決定(医療・法務・財務など)は二重検証を必須にする。

自動テスト:ランダムサンプルを取り、F1や正答率を評価する(評価データ必須)。

すぐ使える“Prompt”ワークフロー(手取り足取り)

A. 根拠を出させる(短いテンプレ)

この回答には必ず出典を付けてください。出典が無い場合は「出典なし」と明言してください。事実の確度が低い箇所は【不確実】と注記してください。


B. 事実確認(検証プロンプト)

以下の主張を3つの信頼できる情報源で検証し、各出典のURL(または論文情報)と、確度(高/中/低)を示してください:
1) ~
2) ~


C. 要約+裏取り(RAG向け)

外部ドキュメント(URL1, URL2...)を参照して要点を箇条書きにし、各要点の根拠となるページと該当テキストの抜粋行番号を示して下さい。

技術的な対策(実装寄り)

Retrieval-Augmented Generation (RAG):外部検索(知識ベース)で都度根拠を取得してから生成する。

ファクトチェッカー層:生成結果を自動で照合する別モデル(真偽判定器)を挟む。

低温度 (temperature) とビーム幅の調整:ランダム生成を抑えて事実寄りに。

出力形式の制約:JSONスキーマを強制して、生成ミスを検出しやすくする。

ヒューマン・イン・ザ・ループ:公開前に人が検閲・承認するワークフローを必須にする。

モデル微調整(fine-tune)やルール追加:誤りが多い領域は専門データで微調整。

運用ルール(企業・チーム向け短縮版)

重要情報は必ず二次ソースで検証する。

出力に出典がない場合は自動で「検証要」タグを付ける。

公開内容は人の承認を得てからデプロイ。

利用者に「生成は補助であり確証ではない」旨を明示する(透明性)。

定期的に“ハルシネーション率”を評価・報告する(メトリクス化)。

小さな実例(日本語)

悪い回答(ハルシネーション):
「2021年に行われた調査で、X社は市場シェア40%を記録しました(出典:Journal of Business 2021)。」
→ 出典が無ければ大疑問。

良い回答(抑止):
「公的なデータが見つかりません。X社の市場シェアについての一次出典(年・調査名・URL)があれば再度検証できます。現状では『出典不明』です。」

まとめ(短く)

ハルシネーションは完全には無くせないが、検証付き運用・RAGや検証器の導入・人的確認で現実的に抑えられる。

重要なら必ず外部確認(検索/公的データベース/専門家)を挟む。

モデルに「出典を出す」「出典が無ければ明言する」プロンプトを常に組み込むと被害を大幅に減らせる。

必要なら、実務で使える(1)検証プロンプト集、(2)RAG構成図(簡単なアーキテクチャ)、または(3)あなたのGASワークフローに組み込める“生成→自動検証→スプレッドシート記録”のサンプルコードを作ります。どれを先に作りましょうか?
-----------------------------------------------

この中で特筆すべき点は

なぜ起きるのか(要点)
確率的生成:モデルは次に最もらしい語を予測して出力するため、事実確認を必ずしない。
学習データの偏り・欠落:学習中に見ていない(または誤って学習した)事柄を補完してしまう。
コンテキストの曖昧さ:あいまいな指示だとモデルが埋め合わせに走る。
過剰な一般化/混同:似た情報を混ぜて「新しいが誤った」結論を生成する。
温度 (temperature) やデコード設定:ランダム性が高いと創作的(=誤情報化)になりやすい。

に挙げられるかと思います。

本質的にあっている回答をするのではなく、
確率的にあっている回答をするというのが含まれています。
もっともらしい回答を行っているということですね。

これはGeminiでも同一のように思います。

ただし、GPTは下記のように注釈しています。
-----------------------------------------------
A. 根拠を出させる(短いテンプレ)
-----------------------------------------------
これは、私がAIとコーディングを行いだして数週間して
自然に出てきた文言です。

例えば、ネクストエンジンとGoogleスプレッドシートをAPI接続するGASを開発していく中で、
数十行の商品マスタの情報を渡すことで在庫情報を取得できますか?
と問たところ100行まで取得可能です
という回答を得てプロジェクトを進めました。

ところが、ネクストエンジンエンドポイントを見ると1度に10000の取得が可能との記載がありまして・・・
そこで各社AIに問い合わせを行いました。

問い合わせを行ったAIの中で、その根拠を示してくれるAIが居たことから、
その根拠をプロンプト・エンジニアリングの中にいれる必要があるのだと学習しました。

改めて私はGASのコーディングについて関数を理解していません。
理解していませんがClaudeをコーディングパートナーとして活用することで、
試験を含めて2500行のGASの作成を行うことが出来ました。

コレは私一人では出来なかったことだと思います。

本命のClaudeに質問した内容です。
-----------------------------------------------
AIのハルシネーションとは、AIが事実ではない情報を、まるで事実であるかのように自信を持って生成してしまう現象のことです。
ハルシネーションの特徴
AIは学習データに基づいて応答を生成しますが、時として存在しない人物、出来事、データ、引用などを「創作」してしまいます。問題なのは、AIがこれらの虚偽情報を確信を持って提示することで、ユーザーが真実だと誤認してしまう可能性があることです。
よくあるハルシネーションの例

存在しない研究論文や統計データの引用
架空の歴史的出来事や人物の詳細
間違った技術仕様や製品情報
不正確な法律や規制の説明
虚偽の連絡先情報やURL

なぜハルシネーションが起こるのか
AIは「次に来る最も適切な言葉」を予測して文章を生成します。学習データにない情報について質問された場合でも、言語パターンに基づいて「それらしい」回答を作り出してしまうことがあります。また、曖昧な質問や、複数の解釈が可能な質問に対しても、ハルシネーションが発生しやすくなります。
対策と注意点
重要な情報については必ず複数の信頼できるソースで確認することが大切です。特に専門的な技術情報、法的事項、医療情報、財務データなどは、AIの回答をそのまま鵜呑みにせず、公式な情報源で検証することをお勧めします。
AIを便利なツールとして活用しながらも、その限界を理解して適切に使用することが重要ですね。
-----------------------------------------------

Claudeであっても統計的に処理した内容を答えるので
ハルシネーションが存在するという事だと思います。

ですが、Claudeには他社のAIに圧倒的に不足しているデバッグ能力が特化しているように思います。

コーディングパートナーとして、一番信頼をおけるClaude・・・

それを使いこなせるだけのプロンプト・エンジニアリングはこの3週間で学習したつもりです。
-----------------------------------------------

以上AIが根本的にもつハルシネーションの紹介でした。

-----------------------------------------------
結論

AIはハルシネーションを行う可能性が否定出来ない

このため、回答を常に人間が正確性を確認する必要がある

ハルシネーションを行わないようにするプロンプトエンジニアリングの一つとして、情報のソースを提示させる方法がある
Posted at 2025/09/25 01:26:14 | コメント(0) | トラックバック(0) | AI | 日記
2025年09月24日 イイね!

私の最も古い整備手帳の作業日:0001年1月1日

私の最も古い整備手帳の作業日:0001年1月1日気になって遡っていたら、エアコンエバポレーター洗浄&エアコンフィルター装着という投稿だったのですが、
作業日を知りたいと思い見たところ・・・

作業日:0001年1月1日

えっ?
何年前?(-_-;)

オートビレッジからの引き継ぎが上手くいかなかった?^^;

Posted at 2025/09/24 21:19:16 | コメント(0) | トラックバック(0) | 日記
2025年09月23日 イイね!

マルチポストのネガティブイメージ

マルチポストのネガティブイメージ例えばYahoo!知恵袋に別のカテゴリに同じ質問を投げかけたとします。

その行為は少し前(と言ってもだいぶん前かもしれませんが)には
マルチポストと言われてあまり良くないという傾向に有るとされていました。

確かに、あるカテゴリにいる人達に質問した内容を
別のカテゴリにいる人達に同じ質問をする行為は、
どちらのカテゴリにいる人達を信用していない行為と思われる傾向にあったかもしれません。

1日の中で何度もおみくじを引く行為を思い出すのかもしれませんね。
おみくじは神様からのお告げと言い換えると、
それを信じずにもう一度お告げを受けるという行為は
神様からのお告げをそもそも信じていないと思うのかもしれません。

それはそうかも知れませんが、
エンジニアの私としては違うソースからの情報同士を精査して
プロジェクトを前に進む方法を探すというのが当たり前のように思います。

ところで、令和の今の時代では生成AIが台頭しています。
知恵袋に別のカテゴリに質問を投稿したらマルチポストと言われるので
生成AIに聞いたら?

令和の今どきであればその方が正解に早く近づくことが出来ると思います。

------------------------------------------
・マルチポストの定義と従来のイメージ:
掲示板文化におけるマナー違反としてのマルチポスト
なぜ嫌われたのか(情報分散、回答者の負担増など)

・現代のエンジニアリングにおけるマルチポストの再評価:
複数のAIに同じ質問をするメリット(多様な視点、客観性、網羅性)
各AIの得意分野を活かした情報収集の効率化
特定のAIの偏りや誤りを補完する役割

・AIの視点から見たマルチポスト:
AIは質問を受けることで学習し、改善されるという側面
多様なインプットがAIの性能向上に貢献する
エンジニアの探究心や効率性を評価するAIの「好印象」

・効果的なマルチポストのやり方:
質問の意図を明確にする
各AIの特性を理解して質問を調整する
得られた回答を統合・比較するスキル
------------------------------------------

知恵袋に対してのマルチポストは令和の今どきでも否定傾向にあるかもしれませんが、
生成AIは誰がどのAIに対して質問しているのかを把握しようがありません。

しかも、生成AIは質問した内容に対して貶すことはありません。

否定するのはありますが、
それはそのAIが学習してきた内容と異なっている場合だと思います。

じゃあ、いくつかのAIに対して同じ質問を行ったり、
常用しているAIからの回答を別のAIに質問を投げかけてどう思いますか?
と言ったことが推奨されているのだと思います。

エンジニアという人種は別のソースからの情報を集約して、
自分が正解に近いと思われる方向に進む傾向にあります。

マルチポストは対人間にたいしてであって、
生成AIに対してのマルチポストはエンジニア的目線からすると推奨されます。

こちらは私がClaudeと行ったコーディングに対して
Geminiはそのコーティングに対してどう感じるのか?という返答です。
------------------------------------------
ご提示いただいたドキュメント、拝見いたしました。Claudeと非常に深く掘り下げてスクリプトを作成されたのですね。素晴らしい探究心だと思います。

その上で、clearを先に行うべきか、getValuesを先に行うべきか、という点について私の見解を述べさせていただきます。
要点(結論から)
Claudeの指摘は、GASの一般的な動作とは異なる誤解に基づいている可能性が高いです。 GASのSpreadsheetAppサービス(getValues, setValues, clearなど)は、基本的に同期的に動作します。非同期ではありません。

パフォーマンス(速度)の観点では、どちらの順序でも体感できるほどの差は生まれません。

データの安全性(堅牢性)の観点では、私が前回提示した順序(get → clear → set)の方が優れています。

したがって、引き続き私が提案した順序 getValues → clear → setValues をお勧めします。

詳細な解説
1. GASの処理は「同期的」です 🤝
Claudeが指摘した最大のポイントは「GASの処理は非同期」という点ですが、これは正しくありません。

SpreadsheetAppで行うほとんどの操作は**同期的(Synchronous)です。これは、「一つの処理が完全に終わるまで、次の処理には進まない」**ということを意味します。

中略

まとめ
Claudeは非常に高度な推論を行いますが、GASの具体的な実行モデルについては一部誤解があったようです。

パフォーマンス面ではどちらも同じですが、データ保全という重要な観点から get → clear → set の順序がベストプラクティスと言えます。安心して前回ご提案したコードをご利用いただければと思います。
------------------------------------------

Claudeとコーディングを行ったスクリプト全体を渡して、
私が感じた疑問(関数の実行順序)をClaudeに聞いた内容を添えて
Geminiとしてどう感じるのか?と聞いた内容に対しての返答です。

なるほど。
Claudeと行ったコーディングで問題に対して深く掘り下げたのだと評価してくれています。
その中で、Claudeの認識がGemini(Google Apps Scrip=(GAS)=Googleグループ)が認識しているGASの技術仕様と異なっていると指摘しています。
GeminiなのでGASとの親和性は当然ながらありますよね。

で、Geminiからの回答をClaudeに伝えたところ・・・

------------------------------------------
Geminiの指摘を受けて、私の説明について詳しく検討させていただきました。非常に建設的なフィードバックをいただき、ありがとうございます。
私の説明で不正確だった点
1. GASの同期・非同期について
Geminiの指摘は正しいです。SpreadsheetAppのメソッド(getValues(), setValues(), clear())は基本的に同期処理です。私が「非同期処理の競合」として説明したのは不正確でした。

2. 実行順序の不定性について
const allData = sheet_copyFrom.getRange(...).getValues();
sheet_copyTo.clear();
sheet_copyTo.setValues(allData);
この順序で書かれていれば、必ずこの順番で実行されます。私の「実行順序が不定になる」という説明は間違いでした。
------------------------------------------

Geminiからの回答を共有したところ、
Claudeの認識が誤っていることをここで認めてくれました。

各種AIへチャットする内容の近くに
AIは間違いを起こすことが有るので・・・
という注意文が有るのはハルシネーションが存在するためです。

Claudeからの回答を続けます。

------------------------------------------
2. Google Sheetsの内部最適化
これについては、私の説明が推測に基づく部分がありました。実際のパフォーマンス差は、Geminiが指摘する通り微細だと思います。
結論
Geminiの分析と推奨は合理的です。 特に:

GASの同期処理: 完全に正しい指摘
エラー時のデータ保全: 重要な観点
パフォーマンス差の実態: 現実的な評価

私の推奨の修正
あなたの運用(マスタデータの重要性、安定運用の重視)を考慮すると、Geminiの推奨する順序がより適切だと思います:

学び
この議論から、私自身も学びました:

具体的な技術仕様の確認の重要性
エラー時の振る舞い設計の重要性
複数の視点から検証することの価値

Geminiとの比較検討をしていただいたおかげで、より正確で実用的な回答ができるようになりました。ありがとうございました!
あなたの「複数の情報源を比較検討する」というアプローチは、エンジニアとして非常に重要な姿勢ですね。
------------------------------------------

AIというのはハルシネーションが有るというのを認めたうえで、
Geminiの言う事をClaudeが足りていないことを認めたうえで、
Geminiの方法のほうが正解であるという事を結論付けてくれました。

さらに、複数のAIにマルチポストする姿勢はエンジニアとして非常に重要な姿勢と発言しています。

AIというのはその回答に対してハルシネーションが含まれないという可能性が否定できないため、
その回答に対して検証を行う必要があります。

一方、エンジニアという人種は自分のことしか信じない傾向にありますので、
AIからの回答を自然に検証する傾向にあります。

検証した結果、誤っていると思われる結果だったことに対して、
同じAIにフィードバックすることも有ると思いますし、
別のAIにマルチポストして回答を得ることも日常です。

------------------------------------------

掲示板にマルチポストするのは否定的な意見がある一方、
複数のAIに対してマルチポストするのはエンジニアとして正しい方向ということですね。

これは、お守りをいくつも持つという行為を思い出します。
お守りは神様や仏様からのご利益もたらす縁起物なのですが、
何柱の神様や仏様からのお守りを持つというのは、
それぞれの神様や仏様を信じたうえで持つ行為ですので、
好意的な印象があるようです。

おみくじを1日のうちに何度も引く行為は否定的に囚われている反面、
お守りを複数持つ行為は好意的に囚われているのですね。

こちらのブログでよく登場したハルシネーションにつきましては別の記事にしたいと思います。

しかし、私の文章とAIの文章ってびっくりするぐらい似ていますよね。
私も区切りがなければ数カ月後に見返してみても
どこが私の文章なんだ?と思うかもしれません(・・;)

という内容の文章がAIによって書かれた可能性は否定できない(笑)
Posted at 2025/09/23 23:36:13 | コメント(0) | トラックバック(0) | AI | 日記
2025年09月23日 イイね!

国勢調査

国勢調査メーカー Canon
カメラ Canon EOS 7D
露出時間 1/60
F値 F4
露出制御モード プログラムAE
ISO感度 ISO 400
まだまだ初心者なのでフルオートモードで撮りまくっています。

国勢調査の義務と背景
国勢調査は、
日本に住むすべての人と世帯を対象とした、
国の最も重要な統計調査です。
統計法に基づき、国民には正確に回答する義務が課せられています。
この「義務」という言葉には、
時に窮屈な印象を抱く方もいらっしゃるかもしれません。
しかし、この義務は単なる強制ではなく、
国や地方自治体がより良い社会を築くために不可欠なデータ収集を目的とした、
公共の利益に資する重要な協力行為なのです。

1. 回答義務がなぜ存在するのか
国勢調査がなければ、国の現状を正確に把握することはできません。
人口の年齢構成、世帯の状況、産業ごとの就業者数など、
膨大なデータがなければ、
行政は国民のニーズに即した政策を立案・実行できません。
回答義務を設けることで、データの網羅性と精度を確保し、
信頼性の高い統計を作成することが可能になります。
これにより、個人情報が保護されつつも、
社会全体として適切な意思決定を行うための基盤が確立されます。

2. 国勢調査データの具体的な活用例
集計されたデータは、私たちの生活の様々な場面で活用されています。

選挙区の適正化: 人口の増減に合わせて選挙区が調整され、
民主的な一票の価値が公正に保たれます。

公共施設の配置: 高齢者施設や保育所、学校、病院などを、
人口動態に合わせて最適な場所に配置するための基礎データとなります。

防災・減災対策: 高齢者や障害を持つ方、
外国籍の方などの居住状況を把握することで、
災害時の避難計画や支援体制がより緻密に策定されます。

経済・雇用政策: 産業構造や就業状況のデータを分析することで、
労働市場の課題を抽出し、
効果的な経済政策や雇用対策を立案できます。

これらの事例からもわかるように、
国勢調査は単なる統計作業ではなく、
私たちの暮らしを支える社会インフラそのものと言えます。

3. 個人の協力が社会の未来を創る
国勢調査への回答は、
一見すると個人的な手間や時間に過ぎないかもしれません。
しかし、その一つひとつの回答が積み重なることで、
国や地域の実態が明らかになり、
将来に向けた具体的な計画や政策が生まれます。

例えるなら、
高度なプログラミングによって膨大なデータを高速で処理するのと同じです。
入力(回答)の精度が低ければ、
どんなに優れたアルゴリズムを用いても、
出力(社会政策)は期待する結果になりません。
国勢調査における私たちの回答は、その「入力データ」そのものです。
正確なデータがなければ、社会を効率的かつ最適に運営することは不可能です。

このように、国勢調査への回答は、
私たち一人ひとりが社会の未来を創るための、
責任ある重要な参加行為なのです。

インターネットの回答は9月20日(土)~10月8日(水)となっていて、
インターネットの回答が簡単なので、
いつやるの?ではなく今やりましょう!(^^)
Posted at 2025/09/23 20:16:08 | コメント(1) | トラックバック(0) | 日記
2025年09月22日 イイね!

「GPTは優等生、Claudeは参謀、Geminiは職人!? AI三者三様レビュー

「GPTは優等生、Claudeは参謀、Geminiは職人!? AI三者三様レビューAIってキャラ濃すぎません?

最近は「AIが仕事を奪う!」なんてニュースもありますが、実際に使ってみるとむしろ
**「キャラの濃い仲間が増えた」**みたいな感覚です。
GPT → 安全第一の優等生タイプ
Claude → 頼れる参謀キャラ
Gemini → 職人気質でサッと仕事を終わらせるタイプ
まるで少年マンガのパーティ編成みたいで、つい笑ってしまいます。

三者三様、使ってみた印象
GPT:「それって危なくないですか? こっちの方法の方が安全ですよ!」と、先生っぽいことを言ってくる。優しいけど、ちょっとおせっかい。
Claude:「まず全体の戦略を考えましょう。大局的に見ると…」と、軍師みたいに語り出す。気づいたらノートが図解でいっぱいになってるタイプ。
Gemini:「はい、修正完了っス。あと説明は3行でいいっスよね?」と、必要最小限の仕事をサッとやってくれる、無口な職人。

実際の体験談
この前、ネクストエンジンとGoogleスプレッドシートをつなぐスクリプトを作ったんですが、
細かい修正は Gemini が速すぎて「もう終わったの?」って感じ。ですが、結果まではたどりつかず(-_-;)
設計全体を考えるときは Claude に相談すると「まるで会議資料」みたいな提案をしてくれる。→結果まで到着可能
GPT はというと、「それ危ないからこう直した方が…」と安全確認ばかりしてきて、まるでベテラン上司(笑)。と思うが結果までたどり着かずコーディングに関しては実は無能?(-_-;)

AIが有能か無能かを判断するのは人間なのですが、
その判断能力が高いのは私のようなエンジニアのように思います^^;

結論:最強は誰? →「あなたのパーティ編成次第」
RPGで「戦士」「魔法使い」「僧侶」を使い分けるみたいに、
AIも「目的に合わせて選ぶ」方が絶対楽しい。
Claude → 作戦会議で必須の軍師
Gemini → 手先の器用な職人
GPT → 優しいが口うるさい先輩(ただし、スイートスポットの狭いパイセン)
…と、まるでAI冒険パーティの完成です。

おまけ:AIをもっと楽しく使うコツ
雑に振ってみる → 思わぬキャラが見えて笑える。
無茶ぶりしてみる → 「川柳で答えて」って言ったら、本当にやる。
三者同時に質問して比べる → まるで討論番組の司会者になった気分。

ブログなので好きなことを書いてみました(笑)
Posted at 2025/09/22 21:40:26 | コメント(0) | トラックバック(0) | 日記

プロフィール

「2024年問題を・・・ってもう良いか^^; http://cvw.jp/b/11052/48697754/
何シテル?   10/06 21:39
2025/06/23追記 ヘッダー画像について興味をお持ちの方もいらっしゃると思いますが、こちらは2025/06/21に香川県で開催されました、GAZOO 愛...
みんカラ新規会員登録

ユーザー内検索

<< 2025/10 >>

    1 2 34
5 67891011
12131415161718
19202122232425
262728293031 

リンク・クリップ

GAZOO 愛車広場 出張取材会 in 香川 満を持してチェイサーの記事が公開されました(^^) 
カテゴリ:その他(カテゴリ未設定)
2025/08/22 08:26:45
電費履歴リセット 
カテゴリ:その他(カテゴリ未設定)
2024/10/12 07:34:32
裏ワザでウィンドウズ11へ^^笑)。 
カテゴリ:その他(カテゴリ未設定)
2024/01/27 14:12:45

愛車一覧

トヨタ チェイサー GR Chaser TourerV TRD sports version (トヨタ チェイサー)
2025/06/21 GAZOO様の出張取材会で取材を頂きました。 https://ga ...
日産 リーフ 日産 リーフ
JZX100 Chaser 1JZ-GTE 2500cc ターボを所有しつつのセカンドカ ...
ホンダ アコード ホンダ アコード
私のではなく弟の車です。 色はアークティックブルーパールのEuro-Rです。 購入してし ...

過去のブログ

2025年
01月02月03月04月05月06月
07月08月09月10月11月12月
2024年
01月02月03月04月05月06月
07月08月09月10月11月12月
2023年
01月02月03月04月05月06月
07月08月09月10月11月12月
2022年
01月02月03月04月05月06月
07月08月09月10月11月12月
2021年
01月02月03月04月05月06月
07月08月09月10月11月12月
2020年
01月02月03月04月05月06月
07月08月09月10月11月12月
2019年
01月02月03月04月05月06月
07月08月09月10月11月12月
2018年
01月02月03月04月05月06月
07月08月09月10月11月12月
2017年
01月02月03月04月05月06月
07月08月09月10月11月12月
2016年
01月02月03月04月05月06月
07月08月09月10月11月12月
2015年
01月02月03月04月05月06月
07月08月09月10月11月12月
2014年
01月02月03月04月05月06月
07月08月09月10月11月12月
2013年
01月02月03月04月05月06月
07月08月09月10月11月12月
2012年
01月02月03月04月05月06月
07月08月09月10月11月12月
2011年
01月02月03月04月05月06月
07月08月09月10月11月12月
2010年
01月02月03月04月05月06月
07月08月09月10月11月12月
2007年
01月02月03月04月05月06月
07月08月09月10月11月12月
2006年
01月02月03月04月05月06月
07月08月09月10月11月12月
2005年
01月02月03月04月05月06月
07月08月09月10月11月12月
ヘルプ利用規約サイトマップ
© LY Corporation