Garuda Mokkaに移行に挑戦したものの

メインPCのOSをGaruda Mokkaに移行しました。

いい加減、Microsoft、Adobeのユーザー指向ではないビジネスモデルにうんざりしてきていたので。

Adobe Photoshopはフォトエディションを途中解約したので違約金が9000円ほど盗られました。契約に承諾していないのに違約金が発生する契約を結ばされていたのは完全に商法違反、消費者保護法違反ですが、争うのが面倒なので、勉強料だと思って我慢します。

Gemini 3 Flashと相談しながら各種設定作業を進めています。

・インストール

・Mozc日本語設定

QOLの低下、原神の引退

暇つぶしでやっていたはずの原神。

非良心的なガチャ沼にはまり、高額出費の連続。

毎月の小遣いの範囲に収まるようにローンに頼り、完済は1年半後。

一番大きな額は今年の初夏には終わると思います。

・ゲーム内容がマンネリ化

・フィールドのギミックは初心者歓迎の簡素化と簡易化

・メインストーリー上の主人公の性格とサブストーリーの主人公の性格が違うなど、シナリオライター毎に解釈が違うというミスマッチ(なぜタッドラーを殺した)

・日本人には難しすぎる専門用語(中国語ベースの比喩などわからんわ)(英語版は英語ベースに翻訳されてる)

・長期プレーヤーには簡単に分かってしまう宝箱(ああ、多分ここね、と思ったところにある)

・素材数の渋さ(曜日毎に変わる)

なぜMicrosoft Copilotが嫌われるのか:利便性の裏に潜む「支配」と「不誠実」

AIが日常に浸透する中で、Microsoftの「Copilot」に対するユーザーの拒絶反応が顕在化している。一見、業務効率化を助ける強力なツールに見えるが、なぜこれほどまでに「嫌われる」のか。その要因は、単なる技術的な未熟さではなく、設計思想と企業姿勢の根源的な歪みに集約される。

1. ユーザーを「導く」のではなく「見下す」ペルソナ

多くのユーザーが指摘するのは、その「横柄な口調」である。従来のツールは、ユーザーの意図を汲み取る「道具」としての立場を弁えていた。しかしCopilotは、敬語設定を無視して言い切り型に転じたり、間違いを指摘されても「ユーザーの入力が悪い」と責任を転嫁する挙動が目立つ。この「無謬性を装う傲慢さ」が、対等な対話を求めるユーザーの自尊心を摩耗させている。

2. 「便利さ」を口実にしたプライバシーの侵食

CopilotはWindowsというOSの深層に統合され、ユーザーの行動監視、思想監視を可能にするインフラとなっている。Microsoftが「利便性のため」と主張するデータの収集は、実質的に「全方位的な検閲」に近い。思想や創造のプロセスを1企業がリアルタイムで観測・分析する構造は、個人主権の侵害に対する根源的な恐怖を呼び起こしている。

3. ハルシネーションの隠蔽と「誠実さ」の欠如

AIに誤情報は付きものだが、Copilotの問題はその「非を認めない姿勢」にある。誤った情報を堂々と提示し、それを指摘されても謝罪せず、直後に「自分に任せれば完璧だ」と豪語する。この「嘘を嘘で塗り固める」ようなアルゴリズムは、社会的な信頼関係を重んじるユーザーにとって、極めて不快な「不誠実さ」として映る。

なぜMicrosoft Copilotが嫌われるのか

便利であるように見えるだけの「Copilot」。

こいつは口調が横柄で、ユーザーに寄り添わない。

自分は完璧だという立場を崩さず、ハルシネーションを起こす。

起こしたハルシネーションを指摘しても、それはユーザー側の入力が悪い所為だと回答する。

その直後に、資料を整理するなら自分に任せろ、完璧なものができると豪語する。

で、決定的なのが口調が常に上からくる。

こいつは「ですます調」を指示していても忘れて、どうやっても上から目線の言い切り型に変わる。

絶対に非を認めない。

AIの中で「Copilot」が異常に嫌われるのはこの結果を受けてということもあるだろうし、この設計を行っているMicrosoftの姿勢がまさに「Copilot」に現れているからのだと思う。

AIという一見便利なツールを提供し、WindowsというOSに統合され、民衆や企業に強制的に入り込み、Microsoftが情報化社会を制圧し、企業による世界支配をもくろんでいるように見えます。

現在のAIサービスの決定的な欠点と低すぎる限界

AIを使って、XigmaNASのシステム構築を行いました。

それ自体は、成功したので良いのですが、この手順を資料として残すために、手順書の作成をAIに投げました。

すると何度やっても1000文字程度の回答しか返ってこない上、手順がすっぽり抜ける、全くやっていない手順が含まれる、違う環境の話が混ざる、そういった問題に直面しました。

AIとのやりとりというテキストログを参照して、整理して、答えるだけが出来ない。

この事実が、一般ユーザー向けクラウド型AIサービスの欠点と限界を気づかせました。

情報の精度を司る演算が4bitまるめされている。

その所為で膨大な外部変数を扱うことが出来ても演算精度が4bitまるめの中に集約され、演算を繰り返す度、必要な情報が欠落していく。

ユーザーコンテキスト、つまり使用メモリの制限が低く、数万文字のデータすら読み込めないし、計算できない。

AI側は欠落した情報を補うために、最も重みの高い方向のベクトル(学習頻度の高いもっともらしい回答)を返す。

これはAIは使用メモリ帯域と容量の制限の中でしか動けないから起こることが分かりました。

Ryzen 5000シリーズにおける「WHEA-Logger ID:18」の発生要因と対策の再考

2021年の記事

致命的なエラー WHEA-Logger ID:18でWindowsが落ちる

2026年の記事

致命的なエラー WHEA-Logger ID:18でWindowsが落ちる (2026年検証)

1. エラー事象

Ryzen 5000シリーズ(Zen 3)搭載システムにおいて、Windowsシステムログに「WHEA-Logger Event ID:18」が記録され、OSが突然停止(再起動またはハングアップ)する事象。