【AI】思考の錯覚

AIを日常的に使っていない人ほどAIを絶対視する傾向ある?

【AI】思考の錯覚

Appleが発表した論文「思考の錯覚」により、ChatGPTなどのAIは「全く思考しておらず、ただ模倣しているだけ」という残酷な現実が証明されました。 彼らは問題を解いているのではなく、単語を確率的に並べて一貫しているように見せかけているに過ぎません。 その構造的な欠陥と限界を4つのポイントにまとめました。

1. 論理の「構造的破綻」 ハノイの塔や川渡り問題において、基本設定なら解けるものの、円盤を増やしたり追加制限を加えたりすると、途端に手順を飛ばし論理が崩壊します。これはルールを理解して推論しているのではなく、過去のデータパターンを盲目的に模倣しているだけの証拠です。

2. 思考の「物理的放棄」 人間は問題が難しくなると時間をかけてステップを踏みますが、AIは逆の特異な挙動を示します。難易度が上がると、自らトークン数やステップ数を減らして「諦める」のです。そこにあるのは思考の深さではなく、単なる確率的なテキスト生成の限界です。

3. 修正の「機能的欠落」 AIには目的意識が存在せず、自らの間違いを認識・評価する能力が物理的に欠落しています。そのため、文脈が破綻しても自ら軌道修正できず、もっともらしいテキストを生成し続けます。自己修正という知能の根本的なプロセスを持っていません。

4. 規模の「絶対的限界」 パラメータを増やしモデルを巨大化させる(スケーリング)だけでは、「本物の思考」は構造的に生まれないと結論づけられています。最大のリスクは、AIの説得力のある「演技」を人間が知能と誤認し、社会インフラなどの重要な権限を与えてしまうことです。

面白いPost。

AIは相談相手として参考にするには良いのだけれど,web上に転がっている情報を学習し,確率的に正しそうなものを出力する。

しかも,全くの見当はずれでも断定口調でそれらしい回答をしてしまう。

ハルシネーションがたくさん起き,その結果がさらにweb上に拡散され,それをまた学習するというサイクルに入り,もはや虚構と現実の区別を人の手に委ねられる度合いが上昇してきている。

AIが活用されるにつれ,AI汚染が進み,AIの出力したものの信用が失墜してゆくという状況。

AIを活用すべき場とAIを活用すべきでない場,何が得意なのか何が得意でないのか,これらを判断・コントロールできる側の人になってゆきたいね。

(場によっては,既に『AI汚染が進む前のもの以外は情報と見做せない』とする場もあるようで。まぁ厳密な扱いを必要とする場ほど,その場の信用にかかわるからね。いやはや。)

ブログ,雑記

Posted by ともや