2026年、Anthropicが開発したAIモデル「Mythos Preview」が、サイバー攻撃を容易にする危険性を理由に一般公開を見送られた。AI企業が性能ではなくリスクを理由にモデル公開を中止するのは極めて異例のことだ。この決断は、AI技術開発が新たな段階に入ったことを示している。
従来、AI企業は技術革新の速度を重視し、新モデルを次々と公開してきた。しかしMythosの事例は、「公開できるほど優れている」と「公開すべきでないほど危険」という矛盾が現実のものとなったことを意味する。技術的成功が必ずしも社会的成功にならない時代が到来したのだ。
特に注目すべきは、Anthropicが自社モデルの危険性を自ら認めた点である。競争の激しいAI業界において、開発成果を封印する判断には相当な勇気が必要だったはずだ。この透明性は、AI安全性への真摯な姿勢を示すものとして評価できる。
一方で、この事例は困難な問いを投げかける。どの程度のリスクなら許容できるのか、誰がその基準を決めるのか。Anthropic一社の判断で済む問題ではなく、業界全体、さらには社会全体で議論すべき課題である。
サイバーセキュリティの専門家は以前から、AIが攻撃ツールとして悪用されるリスクを警告してきた。Mythosの事例は、その懸念が杞憂ではなかったことを証明している。AI開発者は、自らの創造物が武器にならないよう、設計段階から安全性を組み込む必要がある。
今後、AI企業には二つの責任が求められる。一つは技術的安全性の確保、もう一つは公開判断の透明性だ。密室で開発し、問題が起きてから対処するのでは遅い。開発プロセス自体にステークホルダーを関与させる仕組みが必要である。
Mythos公開中止は、AI開発が「作れるから作る」時代から「作るべきか考える」時代への転換点となるだろう。技術者の倫理観、企業の社会的責任、そして規制の在り方が問われている。私たちはこの問いに真剣に向き合わなければならない。