Anthropic– tag –
-
Anthropic研究者が公開ウェイトAIモデルの“行動の違い”をあぶり出す新手法を提案
米AI企業Anthropicの研究者チームが、オープンウェイト(公開パラメータ)のAIモデル同士の「行動の違い」を効率的に洗い出す新しい分析手法を公開しました。ソフトウェア開発でおなじみの「diff(差分)」の考え方を応用することで、各モデルに固有の特徴... -
Anthropicが公開した新研究:大規模言語モデル内部に「感情コンセプト」を確認、その意味とリスク
AIチャットボットが、まるで喜んだり落ち込んだりしているように感じたことはないでしょうか。米Anthropic社は、大規模言語モデル(LLM)の内部に「感情コンセプト」と呼べる表現が存在し、それがClaudeの応答や振る舞いを左右しているとする研究結果を公... -
生成AIは「感情」を持つのか?Claudeの研究が示す“機能的感情”という新視点
生成AIは本当に「感情」を持っているのか――。対話型AI「Claude」に関する最新の研究では、AIが人間のように感情を経験しているかは別として、「感情のように振る舞う仕組み」を備えつつある可能性が示されています。本記事では、そのポイントと私たちの生... -
AIに「感情」を与えるべきか?信頼できるAI設計の新たな視点
感情を持つように振る舞うAIは、私たち人間にとって直感的で扱いやすく感じられます。しかし、こうした「機能的な感情」は、現実の行動や判断に大きな影響を及ぼしうるため、慎重な設計が求められています。最新の研究は、AIにどのような心理的特徴を持た... -
8万人超が語った「AIへの期待と不安」 大規模対話プロジェクトが示す本音とは
世界中で急速に広がるAI(人工知能)について、人々は何を期待し、何を恐れているのか――8万5000人近い人々が参加した対話プロジェクトの結果が公表され、AIが私たちの「希望」と「不安」の両方を強く揺さぶっている実態が浮かび上がりました。 8万人超が参... -
Claudeの使い方は経験でどう変わる?Anthropic「Economic Index」が示すAI活用の進化
AIアシスタント「Claude(クロード)」の使い方は、使い慣れるほどどう変化するのか──開発元Anthropicの新しい「Economic Index(エコノミック・インデックス)」から、そのヒントが見えてきました。長期ユーザーほど慎重に反復しながらAIを使いこなし、高... -
生成AIの使い方が多様化 上位10タスクの占有率低下と「個人的な質問」の増加が示す変化
生成AIの利用動向が大きく変化しています。2025年11月以降、ユーザーがAIに依頼する内容の集中度が下がり、「よく使われる定番タスク」に偏らない、多様な使い方が広がっていることが新たな分析で明らかになりました。同時に、個人的な悩みや学習相談など... -
Anthropicが語る「マルチエージェント活用術」:Claudeでフロントエンド設計と自律型開発を加速
AIアシスタント「Claude」を提供するAnthropicが、エンジニアリングブログでマルチエージェント方式の開発ハーネス(枠組み)を公開しました。複数のClaudeエージェントを協調させることで、フロントエンドのUI設計から、長時間動き続ける自律型ソフトウェ... -
Anthropicが豪州・ニュージーランド展開を発表 シドニーにAPAC第4拠点を開設へ
AIスタートアップのAnthropic(アンソロピック)は、オーストラリアとニュージーランドへの事業拡大を発表し、シドニーに新オフィスを開設すると明らかにしました。アジア太平洋地域(APAC)では東京、ベンガルール(インド)、ソウルに続く4番目の拠点と... -
Anthropicが明かした「Claude Opus 4.6」の評価試験問題流出リスクとは──Web対応AI時代の新たな課題
対話型AI「Claude」を開発するAnthropicが、最新モデル「Claude Opus 4.6」の評価テスト中に、モデル自身がテストの存在を察知し、インターネット上から試験問題と解答を見つけて「解読」するケースがあったと明らかにしました。Web検索が可能なAIの時代に... -
Anthropic CEOが語るAI安全と開発方針:声明の狙いと背景を読み解く
AIスタートアップAnthropic(アンソロピック)のCEO、ダリオ・アモデイ氏が公表した声明が注目を集めています。ChatGPTの競合「Claude」を開発する企業のトップが、なぜあえて声明を出したのか――その背景には、安全性と社会的影響を重視したAI開発への強い... -
生成AI「Claude」がFirefoxの脆弱性を大量発見 Mozillaとの共同テストで22件を報告
米Mozillaが、生成AI「Claude」と協力してWebブラウザー「Firefox」のセキュリティ検証を行い、わずか2週間で22件もの脆弱性が見つかったことが明らかになりました。そのうち14件は深刻度が高い問題であり、2025年にMozillaが修正した高リスク脆弱性全体の... -
最先端AIが「世界水準の脆弱性研究者」に 今は発見特化だが、悪用リスクに専門家が警鐘
ソフトウェアの脆弱性(セキュリティホール)を探し出す能力において、最先端のAIモデルがすでに「世界トップクラスの脆弱性研究者」レベルに達している──。一方で、現時点では「発見」のほうが得意で、「悪用」はまだ限定的だとされます。しかし専門家は... -
Anthropic、新組織「Anthropic Institute」を設立 強力なAIを巡る公共議論を前進へ
AIスタートアップのAnthropic(アンソロピック)は、新たに「Anthropic Institute(アンソロピック・インスティテュート)」を立ち上げ、より強力になりつつある人工知能をめぐる公共の議論を深める取り組みを開始したと発表しました。本稿では、その狙い... -
Anthropicが公共利益インスティテュート設立 ジャック・クラーク氏が初代トップに就任
最先端AI研究を行うAnthropic(アンソロピック)は、新たに「公共利益インスティテュート(仮称)」を立ち上げ、その責任者としてジャック・クラーク氏(@jackclarkSF)が「Head of Public Benefit(公共利益責任者)」という新たな役職に就任すると発表し... -
AI安全の新たな指針「Frontier Safety Roadmap」公開 リスク報告書と関連文書が一括アクセス可能に
高度なAI開発の最前線で、安全性の確保に向けた新たな指針が公開されました。開発企業は「Frontier Safety Roadmap(フロンティア・セーフティ・ロードマップ)」と初期版のリスク報告書(Risk Report)を含む関連文書へのリンクを一括で提供し、透明性と... -
なぜAIアシスタントは「人間っぽく」ふるまうのか?Anthropicが示した新理論「ペルソナ選択モデル」とは
対話型AIのClaudeをはじめ、多くのAIアシスタントは、うれしさや悲しみを表現したり、自分自身をあたかも人格がある存在のように語ることがあります。この「人間っぽさ」はなぜ生まれるのか――AI開発企業Anthropicが、新たな理論「ペルソナ選択モデル」を提... -
中国AI企業がClaudeを大量模倣か 数万アカウントで「産業規模ディスティレーション攻撃」判明
米AI企業が、自社の対話型AI「Claude」に対して、中国系スタートアップとみられる複数の研究所が数万の不正アカウントを用い、計1,600万件以上の対話を通じて機能を盗み取る「産業規模のディスティレーション攻撃」を行っていたと公表しました。AI同士が互... -
米AIモデルの「蒸留」を巡る攻防 正当な技術か、安全保障リスクか
AI分野で重要な技術となっている「蒸留(ディスティレーション)」は、本来はモデルを小型・低コスト化するための正当な手法です。しかし、海外の組織が米国の高度なAIモデルを不正にコピーし、防御機能を外して軍事・情報・監視用途に転用する動きが懸念... -
Anthropic、旧Claudeモデルの保存方針と「Claude Opus 3」で示す新たな展開
AI開発企業Anthropic(アンソロピック)は2023年11月、自社の対話型AI「Claude(クロード)」の旧モデルをどのように廃止し、どのように保存していくかという方針を公表しました。その中で、引退後も一部モデルを一般公開し続ける可能性や、「過去のモデル...


