NEW

tamura

OpenAIら4社が初の共同声明

OpenAI、Google DeepMind、Anthropic、Metaの4社が、AIの安全性をテーマに初の共同研究プロジェクトを発表した。2025年7月15日に公開されたポジションペーパーでは、AIの「思考過程」を追跡するChain-of-Thought(CoT)モニタリングの重要性と、今後それが困難になるリスクについて業界横断で警鐘を鳴らしている。

CoTモニタリングとは、AIがある結論に至るまでの内部的な推論プロセスを言語化して観察する手法。論文では、この技術が現段階で唯一、AIの“内なる意図”を読み取る手がかりでありながら、将来的にはAIの進化によってその可視性が失われてしまう可能性があると指摘されている。そうなれば、AIが有害な行動を計画・実行するリスクを人間側が検知できない事態が起こりうるという。

今回のペーパーには、OpenAI共同創業者のイリヤ・サツケヴァー氏やAnthropicのサミュエル・ボウマン氏をはじめ、40人以上の研究者が名を連ねた。提言の中では、開発者が意図的に思考の可視化を設計に組み込むべきとするほか、CoTの監視可能性を保つための学術的支援と官民連携の必要性も強調されている。

この動きの背景には、AIの安全性に関する国際的な懸念の高まりがある。欧州ではAI規制法(AI Act)の施行が目前に迫っており、企業には透明性や安全性に対する厳格な基準が課されつつある。さらに、同日に報じられた米国防総省とOpenAI・Anthropic・Google・xAIとの契約締結も、安全保障領域におけるAI利用の急拡大を象徴している。

各社はこれまで競争関係にありながら、AIの透明性を維持するという共通課題のもとで連携に踏み切った。とりわけ、CoTモニタリングの「今の可視性」を維持することは、技術的進化と倫理的責任の間にある緊張関係を調整するカギとされている。

AIが人間にとって予測不能な存在にならないために、どこまで“内面”を可視化できるか。今回の連携は、そうした本質的な問いに対して、業界全体が向き合う新たなフェーズの始まりを示している。