現在のAIサービスの決定的な欠点と低すぎる限界

AIを使って、XigmaNASのシステム構築を行いました。

それ自体は、成功したので良いのですが、この手順を資料として残すために、手順書の作成をAIに投げました。

すると何度やっても1000文字程度の回答しか返ってこない上、手順がすっぽり抜ける、全くやっていない手順が含まれる、違う環境の話が混ざる、そういった問題に直面しました。

AIとのやりとりというテキストログを参照して、整理して、答えるだけが出来ない。

この事実が、一般ユーザー向けクラウド型AIサービスの欠点と限界を気づかせました。

情報の精度を司る演算が4bitまるめされている。

その所為で膨大な外部変数を扱うことが出来ても演算精度が4bitまるめの中に集約され、演算を繰り返す度、必要な情報が欠落していく。

ユーザーコンテキスト、つまり使用メモリの制限が低く、数万文字のデータすら読み込めないし、計算できない。

AI側は欠落した情報を補うために、最も重みの高い方向のベクトル(学習頻度の高いもっともらしい回答)を返す。

これはAIは使用メモリ帯域と容量の制限の中でしか動けないから起こることが分かりました。

サーバーリソースに制限がある以上仕方ないことですが、AIを利用する際は入出力情報の量や質には制限があり、ユーザーはそれを前提に入力する情報を制限し、返ってきた回答に対して必ずファクトチェックを行うというのが、現状の絶対条件となります。

つまり自分の知らないことをAIから回答を貰うことはできないということです。

たとえ27B(27億)の変数を扱えても、一つの変数は4bit(16)しか精度がない、出てくる答えの精度も4bit(16)の解像度しか持たない。

悲しいかな。

AI技術はまだ入り口に立ったばかりなのだと痛感しました。

昨日までの期待は、遙か遠い未来だと思うわけです。

で、この精度の低いAIをミッションクリティカル、人命に関わるシステムに組み込むことは非常に危険であることが、容易に予測できるので、これらを勧めてくるIT業者には注意が必要であることが分かります。

今は完全に未熟なAI技術、これらは重大なインシデント、アクシデントを引き起こし、社会トラブルでは済まず、人命損失を引き起こすことになるでしょう。

そのときこの沸きに沸いたAIバブルの熱は一気に冷め、まず一時的な膨大な損失とともに長い長い喪失の時間を過ごすことになると予測します。

はあ・・・。