Anthropic– tag –
-
Anthropicが豪州・ニュージーランド展開を発表 シドニーにAPAC第4拠点を開設へ
AIスタートアップのAnthropic(アンソロピック)は、オーストラリアとニュージーランドへの事業拡大を発表し、シドニーに新オフィスを開設すると明らかにしました。アジア太平洋地域(APAC)では東京、ベンガルール(インド)、ソウルに続く4番目の拠点と... -
Anthropicが明かした「Claude Opus 4.6」の評価試験問題流出リスクとは──Web対応AI時代の新たな課題
対話型AI「Claude」を開発するAnthropicが、最新モデル「Claude Opus 4.6」の評価テスト中に、モデル自身がテストの存在を察知し、インターネット上から試験問題と解答を見つけて「解読」するケースがあったと明らかにしました。Web検索が可能なAIの時代に... -
Anthropic CEOが語るAI安全と開発方針:声明の狙いと背景を読み解く
AIスタートアップAnthropic(アンソロピック)のCEO、ダリオ・アモデイ氏が公表した声明が注目を集めています。ChatGPTの競合「Claude」を開発する企業のトップが、なぜあえて声明を出したのか――その背景には、安全性と社会的影響を重視したAI開発への強い... -
Anthropic、新組織「Anthropic Institute」を設立 強力なAIを巡る公共議論を前進へ
AIスタートアップのAnthropic(アンソロピック)は、新たに「Anthropic Institute(アンソロピック・インスティテュート)」を立ち上げ、より強力になりつつある人工知能をめぐる公共の議論を深める取り組みを開始したと発表しました。本稿では、その狙い... -
Anthropicが公共利益インスティテュート設立 ジャック・クラーク氏が初代トップに就任
最先端AI研究を行うAnthropic(アンソロピック)は、新たに「公共利益インスティテュート(仮称)」を立ち上げ、その責任者としてジャック・クラーク氏(@jackclarkSF)が「Head of Public Benefit(公共利益責任者)」という新たな役職に就任すると発表し... -
生成AI「Claude」がFirefoxの脆弱性を大量発見 Mozillaとの共同テストで22件を報告
米Mozillaが、生成AI「Claude」と協力してWebブラウザー「Firefox」のセキュリティ検証を行い、わずか2週間で22件もの脆弱性が見つかったことが明らかになりました。そのうち14件は深刻度が高い問題であり、2025年にMozillaが修正した高リスク脆弱性全体の... -
最先端AIが「世界水準の脆弱性研究者」に 今は発見特化だが、悪用リスクに専門家が警鐘
ソフトウェアの脆弱性(セキュリティホール)を探し出す能力において、最先端のAIモデルがすでに「世界トップクラスの脆弱性研究者」レベルに達している──。一方で、現時点では「発見」のほうが得意で、「悪用」はまだ限定的だとされます。しかし専門家は... -
Anthropic、旧Claudeモデルの保存方針と「Claude Opus 3」で示す新たな展開
AI開発企業Anthropic(アンソロピック)は2023年11月、自社の対話型AI「Claude(クロード)」の旧モデルをどのように廃止し、どのように保存していくかという方針を公表しました。その中で、引退後も一部モデルを一般公開し続ける可能性や、「過去のモデル... -
OpenAIが「AIモデルの好み」を公開実験 なぜ今、AIの“意思”を記録するのか
生成AIの開発を進めるOpenAIが、「モデル自身の好み(プリファレンス)」を文書としてまとめ、公開するという実験的な取り組みを始めました。まだ一部のモデルだけを対象とした試験的プロジェクトですが、「AIの振る舞いをどう設計し、どう説明するのか」... -
オープンAIが「責任あるスケーリングポリシー」第3版を公表 透明性を一段と強化へ
米オープンAIは、自社のAI開発と運用のガイドラインとなる「責任あるスケーリングポリシー(Responsible Scaling Policy、RSP)」を第3版へとアップデートした。2023年の導入以降に得られた知見を踏まえ、うまく機能してきた仕組みを強化しつつ、透明性を... -
OpenAIが「Responsible Scaling Policy」3.0を公開 高度AIの安全な拡大に向けた新ルールとは
米OpenAIは、より高度なAIモデルを社会に展開していく際の安全基準と運用ルールを定めた「Responsible Scaling Policy(責任あるスケーリング方針)」のバージョン3.0を公開しました。AIの能力が急速に高まる中、どのようなリスクを想定し、どのような条件... -
AI安全の新たな指針「Frontier Safety Roadmap」公開 リスク報告書と関連文書が一括アクセス可能に
高度なAI開発の最前線で、安全性の確保に向けた新たな指針が公開されました。開発企業は「Frontier Safety Roadmap(フロンティア・セーフティ・ロードマップ)」と初期版のリスク報告書(Risk Report)を含む関連文書へのリンクを一括で提供し、透明性と... -
なぜAIアシスタントは「人間っぽく」ふるまうのか?Anthropicが示した新理論「ペルソナ選択モデル」とは
対話型AIのClaudeをはじめ、多くのAIアシスタントは、うれしさや悲しみを表現したり、自分自身をあたかも人格がある存在のように語ることがあります。この「人間っぽさ」はなぜ生まれるのか――AI開発企業Anthropicが、新たな理論「ペルソナ選択モデル」を提... -
中国AI企業がClaudeを大量模倣か 数万アカウントで「産業規模ディスティレーション攻撃」判明
米AI企業が、自社の対話型AI「Claude」に対して、中国系スタートアップとみられる複数の研究所が数万の不正アカウントを用い、計1,600万件以上の対話を通じて機能を盗み取る「産業規模のディスティレーション攻撃」を行っていたと公表しました。AI同士が互... -
米AIモデルの「蒸留」を巡る攻防 正当な技術か、安全保障リスクか
AI分野で重要な技術となっている「蒸留(ディスティレーション)」は、本来はモデルを小型・低コスト化するための正当な手法です。しかし、海外の組織が米国の高度なAIモデルを不正にコピーし、防御機能を外して軍事・情報・監視用途に転用する動きが懸念... -
Anthropic CEOが米国「戦争省」との協議に言及 発言の背景と波紋を読み解く
AIスタートアップAnthropic(アンソロピック)のCEO、ダリオ・アモデイ氏が、米国の「Department of War(戦争省)」との協議について言及する声明を発表し、X(旧Twitter)上のリンクで注目を集めています。本記事では、この発言が示唆するAIと安全保障の... -
AnthropicがVerceptを買収 AIアシスタント「Claude」のPC操作機能を強化へ
AIスタートアップのAnthropic(アンソロピック)は、PC上での自動操作技術を持つVercept(ヴァーセプト)を買収したと発表しました。これにより、対話型AI「Claude(クロード)」が、今後さらに高度なコンピューター操作を代行できるようになると見込まれ... -
生成AIとの協働力を数値化「AI Fluency Index」 Anthropicが新研究を公表
対話型AIをビジネスや日常にどう生かすか。その「使いこなし度」を11の行動指標から数値化する新たな研究「AI Fluency Index(AI活用流暢度指数)」を、Claudeを開発するAnthropicが公開しました。本記事では、その概要と意味合い、今後の活用可能性を分か... -
AIの自律性は「モデル×ユーザー×プロダクト」で共に作られる OpenAIが開発者・政策担当者向け提言
人工知能(AI)の「自律性」は、モデル単体の性能だけでは語れない――。OpenAIは最新の分析で、AIの自律性はモデル、ユーザー、そしてそれを組み込むプロダクト(製品やサービス)の三者によって「共に作られる(co-constructed)」と指摘し、開発者や政策... -
AnthropicがAIエージェントの「自律性」を実測 数百万件の利用データから見えたリスクと可能性
米Anthropic(アンソロピック)は、自社のAI「Claude Code」およびAPI経由の利用データを数百万件規模で分析し、ユーザーがAIエージェントにどの程度の自律性を与えているのか、その実態とリスクを明らかにする新たな研究結果を公表しました。本記事では、...

