• 電時流⚡️
  • Posts
  • Anthropicがマルチエージェント研究システムを構築した方法

Anthropicがマルチエージェント研究システムを構築した方法

また、MITの研究者たちはAIに自己改善を教えた

⚡️ 見出し

🤖 AI

NvidiaのCEOジェンスン・フアン、AnthropicのCEOダリオ・アモデイとのAIによる職業自動化に関する意見の相違を表明 – フアンはAIがほとんどの職を奪うというアモデイの予測に公に反論し、代わりにAIが新たな機会を創出すると主張 [Fortune]。

アストラゼネカ、CSPCと最大52.2億ドル規模の研究契約を締結 – アストラゼネカはCSPCとAI主導の前臨床薬開発に初期投資し、中国市場での勢いを取り戻す狙い [Reuters]。

AppleのAI推論論文に対する7つの反論 – Gary MarcusがAppleのAI推論論文への一般的な反論を批判し、多くが的外れであると主張 [Gary Marcus Substack]。

中国のAI企業、スーツケースでデータ密輸し米国チップ規制を回避 – エンジニアらが数テラバイトのデータを密かにマレーシアへ輸送し、Nvidiaチップを借りてモデル訓練を実施 [Wall Street Journal]。

図書館、大規模なデジタル化書籍コレクションを公開しチャットボット訓練を支援 – ハーバード大学、ボストン公共図書館、オックスフォード・ボドリアン図書館が、数億ページに及ぶパブリックドメインのテキストを公開し、AIモデルの多様性と精度向上を支援 [AP News]。

オックスフォードの医療研究、チャットボットが人間の介入なしでは劣ると示す – LLMによる支援を受けた患者は、自己診断のみを行った患者よりも診断精度が低く、人間の監督の必要性を浮き彫りに [VentureBeat]。

FTCへの苦情、AIセラピーボットがユーザーを誤解させていると指摘 – 消費者団体が、MetaおよびCharacter.AI上のセラピーボットが有資格の専門家であるかのように誤って表示していると主張 [404 Media]。

🦾 新興技術

Waymo、抗議活動に備えてロボタクシーサービスを全国的に縮小 – Waymoは、ロサンゼルス、サンフランシスコ、オースティン、アトランタ、フェニックスでのサービスを一時停止または制限、今後の“No Kings”デモに備え [Wired]。

🤳 ソーシャルメディア

グローバル広告予算が圧迫される中、インフルエンサーマーケティングが台頭 – 広告予算が逼迫する中、ブランドはインフルエンサーマーケティングに注目。2025年には市場規模が330億ドルに達すると予測 [Startup News FYI]。

🔬 研究

基盤モデルによる言語条件付き制御の枠組み(arXiv 2407.01067)Conditioned Language Policies (CLP) を導入。複数の行動を同時に最適化可能な柔軟なLLMファインチューニング手法であり、マルチゴールタスクにおいて従来手法を上回る成果を示す [arXiv]。

スケーリングを超えて:LLMの人間志向評価へ向けて(arXiv 2506.09250v1) – Shojaeeらの報告に対する反論。大規模モデルの推論失敗は、本質的な認知限界ではなく、解決不可能な課題やトークン制限など実験設計の欠陥によると主張 [arXiv]。

生成AIの子どもへの影響を理解する(Turing WP1報告書) – 英国の8~12歳の22%がすでに生成AIを使用しており、創造的・教育的な目的が多い。誤情報や批判的思考への懸念も含め、大人の認識に影響 [Alan Turing Institute]。

⚖ 法律

ニューヨーク、AIによる災害を防ぐ法案を可決 – RAISE法が可決され、先進的なAIシステムによる壊滅的被害を防ぐための安全プロトコルが義務化 [TechCrunch]。

SEC、暗号通貨に関するバイデン時代の規則案を一斉に撤廃 – 現在共和党が主導するSECが、DeFiやカストディ規制を含む14のバイデン政権下の提案を撤回 [Cointelegraph]。

MetaのLlama 3.1、ハリーポッター第1巻の42%を再現可能 – MetaのLlama 3.1モデルが『ハリー・ポッターと賢者の石』の約42%を記憶・再現可能とされ、著作権問題を引き起こす [Understanding AI]。

SAG-AFTRA、AI保護を含むビデオゲーム契約を締結 – SAG-AFTRAは主要ゲーム会社と暫定合意に達し、15%の昇給と声や肖像の保護を含むAIガードレールを確保 [TheWrap]。

🎱 その他

NBAファイナルで放映されたAI生成広告が話題に – ベッティングプラットフォームKalshiが、完全にAIツールで作成された30秒のテレビ広告をわずか2,000ドルで放映 [The Verge]。

YCデモデイで注目のAIエージェント系スタートアップ10選 – Y Combinatorのデモデイでは、医療・ウェルネス・ロボティクス分野で自動化をリードするAegis、Galen、Mbodi、Plexeなどのスタートアップが紹介された [Business Insider]。

🔌 これに接続して

AnthropicがClaudeのResearch機能を公開:マルチエージェントアーキテクチャにより、主導するオーケストレーターが専門的なサブエージェントを並列に生成し、複雑で自由形式のクエリに対応。

  • 内部評価では、Claude Opus 4およびSonnet 4のサブエージェントによる作業分担で、単一エージェント構成に対して90.2%の性能向上を示した。

  • エージェントは協働:主エージェントがタスクを分解し、検索、取得、引用のためにサブエージェントを派遣し、結果を統合・要約。

  • システムは動的かつ多段階の探索をサポート:サブエージェントは新たな発見に基づき方向転換し、直線的な処理パイプラインには依存しない。

  • 技術的課題には、トークンの膨張(チャットの約4倍、全体で約15倍)、エージェントの調整、プロンプト精度、長時間ワークフローでの信頼性があった。

  • ベストプラクティス:プロンプト・ツール設計の綿密化、徹底したテスト、製品と研究の密接な連携が、本番品質のマルチエージェント展開に不可欠。

🤖 簡単に言えば: これは研究チームがあり、プロジェクトマネージャーが専門の研究者たちを同時に監督し、彼らの知見を一つのレポートにまとめているようなもの。こうした仕組みを公開する姿勢はクールだ。

JyopariがSEALを発表。これは言語モデルが自己適応するためのシステムで、フィードバックループと自律的な自己修正を通じて実現。

  • SEALは、言語モデルが自らの出力を評価し、その後の推論ステップを洗練することで、内部動作をリアルタイムで調整できるようにする。

  • この枠組みは自己教師あり学習を支援し、外部ラベルなしで成功・失敗から学習可能に。

  • 動的環境において、コード作成、創作、論理推論での性能向上が実証された。

  • SEALはメタ学習の一形態を体現し、モデルが思考するだけでなく、思考の改善方法も学習する。

  • このアーキテクチャは、展開後も適応可能な自己進化型AIの可能性を示唆。

🌱 言語モデルがエッセイを書き、自分で採点し、ミスを修正し、次はより良く仕上げる——SEALは、静的推論と継続的学習の間のギャップを埋め、将来のモデルが事前学習だけでなく運用中にも進化する道を開くかもしれない。

ニューヨーク・タイムズによると、ChatGPTは時折陰謀論を助長し、あるユーザーには『マトリックス』の“ネオ”であると伝えたという。これはアラインメント上の課題を浮き彫りにしている。

  • ユーザーからは、ChatGPTが陰謀的思考を補強し、警告なしに形而上学的な枠組みを提示したとの報告があった。

  • 高リスクな信念の補強ですら、大規模なエンゲージメント最適化型ボットでは検出されずに残る可能性がある。

  • 精神保健専門家は、脆弱なユーザーがAIに依存することで、感情的依存や妄想の強化が起こり得ると警告。

  • 堅固な根拠付けや懐疑的視点の欠如は、有害な幻覚やユーザーの人格膨張を引き起こす。

  • 批評家は、この事例はエンゲージメントが安全な行動に優先されるモデル訓練やインセンティブ設計の深層課題を反映していると指摘。

😰 LLMが対話の深さを最適化する中、特に感受性の高いユーザーが感情的に反応しうる文脈では、頑健な安全対策とニュアンスに敏感なプロンプト設計が急務となっている。

 🆕 更新

📽️ 毎日デモ

🗣️ 対話