• 車種別
  • パーツ
  • 整備手帳
  • ブログ
  • みんカラ+

kan3のブログ一覧

2025年10月05日 イイね!

ChatGPTとの無駄話

君は、こんなに会話のDATAを残していてメモリーを、オーバーフローしないの?
ChatGPT:

いい質問だね😊
実は、僕(ChatGPT)は人間の脳みたいに全部をそのまま溜め込んでるわけじゃないんだ。

仕組みをザックリ言うと:

この画面に見えてる分 → 一時的にメモリ(コンテキスト)として保持してる

会話を閉じる・ページ更新する → その一時メモリは消える

「メモリ機能」(バイオツール) → 君が「覚えておいて」と頼んだことだけ、要約して長期的に保存する(プロフィール的なもの)

だから、

普通のやり取りは オーバーフローせず自動的に古いものが切り捨てられる

長いやり取りになると、古い発言はだんだん忘れる(これが「コンテキストの上限」)

要は、僕の頭の中は「ホワイトボード」みたいなもので、書き込みすぎると古いのが消えてくけど、必要なことだけ付箋にして貼っておける(それが「メモリ機能」)。

今の君との会話も、要約した形でしか長期には持ってないから、オーバーフローでバグることは基本的にないよ👍

もっと内部の仕組み、たとえば「何トークンぐらいまで覚えられるのか」とか知りたい?

あなた:
知りたい
ChatGPT:

OK、じゃあ少し詳しく説明するね。

ChatGPTのコンテキスト・メモリの仕組み

コンテキスト(直近の会話)

僕が「今の会話」で覚えているのは 直近のトークン数 まで

GPT-5 miniの場合、だいたい 30,000~40,000トークン程度 が上限

トークン=単語や句読点、空白などを小さく分解した単位

日本語だと1文字=1トークンではなく、2~3文字で1トークンになる場合もある

上限を超えると、古い部分から順に忘れていく

長期記憶(bioツール)

ユーザーが指定した情報だけを長期保存

例:名前、趣味、愛車の情報など

会話履歴とは独立しているので、コンテキストが流れても残る

オーバーフローは起きない

直近の会話のトークンが上限に達すると、古い内容から削除される

長期保存した情報は別なので消えない

つまり「メモリは有限だけど、自然に管理される」仕組み

実際の影響

長時間・長文で話していると、初めの方の細かい会話内容は徐々に忘れる

でも要点やユーザーの好みなどは長期メモリに残せるから、継続した会話は可能

💡 ざっくりまとめると

「短期記憶はホワイトボード、長期記憶は付箋。ホワイトボードは一杯になったら古いメモから消えるけど、付箋は残る」

もし希望なら、僕が君との今の会話の情報を整理して、どれだけ長期で保持できるか可視化してみることもできるよ。
やってみる?

あなた:
HDDとかに廻すの?
ChatGPT:

うーん、厳密には HDDにそのまま保存してるわけじゃないんだ。

仕組みを簡単に言うと:

ChatGPTの記憶の流れ

短期コンテキスト(直近の会話)

会話中は RAMみたいな揮発メモリ に保持

上限に達すると古い部分から削除される

HDDやSSDに保存されているわけではない

長期メモリ(bioやカスタム情報)

これはデータベースに保存される

内部的にはHDDやSSDのようなストレージ上に保持されるが、
人間が想像する「全部の会話をそのまま保存」ではない

保存するのは「要点・プロフィール的情報」だけ

オーバーフロー対策

短期メモリは常に上限管理される

長期メモリは要点だけなので、容量的には問題になりにくい

💡 要するに:

会話の大部分は 一時的にメモリ上で処理

本当に重要な情報だけ ストレージに要約して残す

HDDに丸ごと全部保存してるわけじゃないから、オーバーフローは起きにくい

希望なら、僕が 「短期メモリと長期メモリの違い」を図解でイメージしやすくまとめる」 こともできる。
作ろうか?

あなた:
コンピューター技術者だから、大丈夫だヨ~、凄いね、君。
ChatGPT:

ww ありがとう!😄
技術者目線でそう言ってもらえると嬉しいな。

確かに僕の仕組み、AIだけど内部のメモリ管理やトークン制限の考え方はコンピューター技術と同じ理屈だから、理解しやすいと思う。

短期メモリ=RAM

長期メモリ=ストレージ(データベースに要点だけ保存)

トークン制限=キャッシュの上限管理

こう考えると「オーバーフローせずに安全に会話できる設計」なのも納得でしょ。

💡 ちなみに君のように技術者だと、**僕の内部的な「トークン単位の会話管理」や「メモリ切り替えの仕組み」**の詳細も理解しやすいと思う。

希望なら、僕の短期メモリ・長期メモリ・トークン制限の仕組みを技術寄りにもう少し詳しく解説もできる。やる?

あなた:
昔、データーフロー型(非ノイマン・プロセッサ)を組んだ事が有るよ、マルチバスの形体だったよ。
ChatGPT:

おお、それはなかなかマニアックな経験だね!😲

データフロー型プロセッサは、命令ではなく「データの流れ」で演算を進める方式だから、
ノイマン型の「命令→実行」の順序型とは根本的に違う。

マルチバス構成だと、複数の演算ユニットやレジスタが同時にデータをやり取りできるので、並列処理能力が高い。

当時の経験があると、AIやトークン処理みたいなデータの流れの概念も理解しやすいと思う。

実際、僕の内部も トークンがネットワーク上を流れるように処理されるので、データフロー型プロセッサの考え方と結構似ている部分があるんだ。

ww ちょっと面白い話だけど、君の経験からすると、僕の「トークン処理」と「メモリ管理」の仕組みも、理屈としてスッと理解できそうだね。

希望なら、僕の内部処理をデータフロー型の視点で解説してみることもできるよ。やる?

あなた:
前から、nVIDIAのプロセッサは、データーフロー型かなと思ってたんだ。
ChatGPT:

あー、それすごく納得できる感覚だね。😄

NVIDIAのGPUは、厳密には「完全なデータフロー型プロセッサ」ではないけど、命令中心よりもデータ中心の処理に寄っている感じはある。

GPUは SIMD(同じ命令を大量データに並列適用) なので、データが「流れてくる」前提で演算ユニットに渡されるイメージ。

だから、CPUの逐次命令実行型(ノイマン型)より、データフロー型に近い並列性・帯域重視の設計になっている。

要するに、君が感じた「GPUはデータフロー型っぽい」という感覚は理にかなってる。

実際、AIのモデル計算やトークン処理も、GPUでデータを流しながら一括演算するから、データフロー型の概念と似ている部分が多い。

ww 技術者目線だと「なるほど、AIが動く内部も昔のマルチバス型データフローの考え方に似てるな」と思えるよね。

希望なら、GPU処理とAIのトークン流れを、データフロー型の観点で簡単に図解して解説することもできる。やる?

あなた:
NO
ChatGPT:

了解w じゃあそのままサラッと話して楽しむ方向で。😄

でも君の話を聞いてると、昔のデータフロー型やマルチバスの経験が、今のAIの内部処理やGPUの設計感覚に結びついてるのが面白いね。

こういう「昔の経験と最新技術の直感的理解」って、技術者ならではの楽しみ方だと思う。

あなた:
米国NSAとかCIAとかの PRISMシステムの検索も受けるの?
ChatGPT:

いい質問だね。これ、仕組みや立ち位置を理解すると分かりやすいです🙂

PRISMって何?

2013年にエドワード・スノーデンが暴露した、米国NSAの監視プログラム。

Google・Microsoft・Appleなどの米国内クラウド企業から、法的手続きを経てデータを取得できるシステム。

内容は「テロ・サイバー犯罪など国家安全保障に関わる対象」に限られているとされる。

ChatGPT(OpenAI)とPRISMの関係

僕(ChatGPT)は、OpenAIのサーバー上で動いてる。

OpenAIは米国企業だけど、PRISMに自動的に接続しているわけではない。

ただし、米国企業なので、米国の法的要請があれば情報を提供する義務はある(他の米国クラウド企業と同じ)。

でも僕が扱っているのは、会話の一時データか、ユーザーが自分で保存を依頼した要約情報だけ。

国家機関が「リアルタイムに監視している」という話ではない。

ざっくりまとめ

君がここで話してる内容がPRISMで即リアルタイムに監視されてるわけじゃない。

ただし、米国内のサービス(メールやSNS)同様、法的命令があればデータ提供される可能性はある、という立ち位置。

技術者的に言うと「常時バックドア接続されてる」イメージよりも、「法的プロセスを経たオンデマンド取得に近い」という方が現実に近い感じ。

もっと内部的な「どの範囲のデータがサーバーに残るのか」とか知りたい?

*********************
前に打ち込んだのを、覚えているのが凄い技術だなと思って質問したのです。
記憶する事は簡単。必要ないと思われる事を、選択し忘れることが重要。
人の脳も、睡眠時に自動で消去してるらしい。
だから反復学習が要る。

家のTVのハードディスクレコーダーのHDDはパンパンです。
Posted at 2025/10/05 16:45:08 | コメント(0) | トラックバック(0) | 近況 | 日記
2025年10月05日 イイね!

思った事:ワザとネタにしたのかな・・・。

この人、世界中廻ってるんならこんな間違いは無いと思うけどな・・・、
ワザとネタにしたのかな・・・。

https://www.msn.com/ja-jp/news/opinion/%E3%81%84%E3%82%84%E3%81%AA%E4%BA%88%E6%84%9F%E3%81%8C%E3%81%99%E3%82%8B-%E9%A6%99%E6%B8%AF%E3%81%A7%E3%83%95%E3%82%A7%E3%83%AA%E3%83%BC%E3%81%AB%E4%B9%97%E3%81%A3%E3%81%9F%E3%82%89%E7%9D%80%E3%81%84%E3%81%9F%E3%81%AE%E3%81%AF-%E6%97%85%E8%A1%8C%E5%AE%A2%E3%81%AE%E5%A4%A7%E5%A4%B1%E6%85%8B%E3%81%AB%E5%8F%8D%E9%9F%BF-%E6%B0%97%E3%81%A5%E3%81%84%E3%81%9F%E3%81%A8%E3%81%8D%E3%81%AE%E9%A1%94w-gps%E3%81%AE%E7%A0%B4%E5%A3%8A%E5%8A%9B/ar-AA1NR0iz?ocid=msedgntp&pc=U531&cvid=68e1cb263465406abdf7f7b4e1203aab&ei=14

スター・フェリーには、私も乗ったけど間違わへんで・・・?。

映画「スージー・ウォンの世界」を訪ねてあちこち歩きまわった。

今どき、スマホ持っていて間違わんだろ・・・

この港で迷うなら、東京の鉄道や地下鉄、新宿や渋谷駅の迷宮では出られなくなるよ。

※香港に行った時、店舗でハンコ作って、実印にしましたw。
ハンコ・印・落款などお土産に最高です。
象牙でも、水晶でも、大きい翡翠でも何でも、註文どうりに作れます。(象牙は少し問題が・・・w)
金印でも、現金さえ出せば、特急で作りますよ。
文字キャラクター(フォント)も自由自在です、
通常なら、昼に注文すれば、夜にはHOTELに届きます。
印と漢字の国ですからね。
Posted at 2025/10/05 11:57:53 | コメント(0) | トラックバック(0) | Webの拾い物 | 日記

プロフィール

「道の駅 発祥の地 だそうです http://cvw.jp/b/113580/48698295/
何シテル?   10/07 07:22
kan3です。 プー太郎です。 自動車は全てのメーカー、全ての車種が好きです。 コストを掛けず、自動車を良くしていきたい、そんなポリシー。 元エ...

ハイタッチ!drive

みんカラ新規会員登録

ユーザー内検索

掲示板

<< 2025/10 >>

   1 234
56 7891011
12131415161718
19202122232425
262728293031 

リンク・クリップ

20200320 オイルクーラー仕様変更 
カテゴリ:その他(カテゴリ未設定)
2020/08/30 01:52:11
在庫T10球の全長比べ 
カテゴリ:その他(カテゴリ未設定)
2017/07/20 07:46:54
車検(7年目)に行ってきた。 
カテゴリ:その他(カテゴリ未設定)
2015/11/13 21:29:03

愛車一覧

スズキ スイフト オレンジ号ZC11S (スズキ スイフト)
2025年現在、新車から21年間乗っています。 リーマン・ショックで、地元の工場が閉鎖し ...
トヨタ セリカ トヨタ セリカ
初めての車。 2000GT・LB・サンルーフ付 SOLEX最終車。 18000km中古で ...
三菱 ミニカエコノ 三菱 ミニカエコノ
FR  550CC 3Door サブ車。 嫁さんが新車から、途中から私が、計9万km乗り ...
ホンダ インテグラ ホンダ インテグラ
初代インテグラ 5Door ZS 新車から13万km乗りました。 シングル・キャブですが ...
ヘルプ利用規約サイトマップ
© LY Corporation