AppleのAI研究チームが発表した新しい研究によると、大規模言語モデルの推論能力に重大な弱点があることが明らかになりました。この研究では、OpenAIやMetaなどの主要な言語モデルの評価が行われ、これらのモデルが数学的推論タスクをどれだけうまく処理できるかが調査されました。結果、質問の表現を少し変更するだけで、モデルの性能に大きな差異が生じ、論理的一貫性を求められる場面での信頼性を損なうことが示されました。言語モデルは本物の論理的推論ではなく、パターンマッチングに依存しているという持続的な問題が指摘されています。研究者たちは、無関係な情報を質問に追加することで、数学的な結果に影響を与えないにもかかわらず、モデルが回答を大きく変えることがあることを示しました。研究の最後に、AIがより正確な意思決定や問題解決能力を得るためには、神経ネットワークと伝統的なシンボルベースの推論を組み合わせた「神経シンボリックAI」が必要かもしれないと示唆されています。

error: Content is protected !!