- 電時流⚡️
- Posts
- MCPs:詳細スレッド 🧵
MCPs:詳細スレッド 🧵
また、MetaのLlama 4とGoogle DeepMindのAGIセーフティアプローチについて
日曜日に読む価値のあるいくつかのスレッド🧵をご紹介します🧐…

コンテキスト
AI統合の複雑化が進行中:AIアシスタントが高度になるにつれ、無数のアプリやサービスとのやりとりを標準化する必要が高まっている。MCPはこの増大する統合の複雑さに対応するために設計された。
Web標準から着想:MCPはGraphQLのようなWeb技術からヒントを得ており、異なるサービス間でAIモデルが簡単にクエリやアクションを実行できる「スーパグラフ」の提供を目指している。
より大きな変化の一部:このプロトコルは、AIエージェントをより自律的で実用的な存在にするという大きな流れの一端を担っている——つまり、ツールについて語るだけでなく、実際に“やる”AI。
なぜ重要?
AIを本当に役立つものにする:MCPは、SlackやNotion、GitHubのようなツールでAIが実際に行動できるようにする。要約やチャットだけではなく、アシスタントと実行者の違いを生み出す。
カオスに標準をもたらす:MCPのようなプロトコルがなければ、各統合は個別対応となり、時間もかかる。MCPは共通言語を作り、AIがアプリに即座に接続できるようにする——まるでデジタルワークフローにおけるUSBのように。
エージェントAIへの道を開く:これは、デジタル生活を自律的に操作・管理できるAIエージェントの未来に向けた基盤となる——実用的なパーソナル・ジャーヴィスを想像してみてほしい。
Llama 4 Herd is here!
It brings a lot of goodies, like MoE architecture and native multimodality, enabling developers to build personalized multimodal experiences.
With Day 0 support in vLLM, you can deploy Llama 4 with @vllm_project now!
Let's dig into it.
(a thread)
— Red Hat AI (@RedHat_AI)
7:35 PM • Apr 5, 2025
2025年4月5日、Metaは最新のAIモデル「Llama 4 Scout」と「Llama 4 Maverick」を発表し、AI技術における重要な進展を示した。
コンテキスト
Llama 4 Scout:効率性を重視したこのモデルは、単一のNvidia H100 GPU上で動作し、1,000万トークンのコンテキストウィンドウを持つ。GoogleのGemma 3などの競合を複数のベンチマークで上回っている。
Llama 4 Maverick:より大規模なこのモデルは、OpenAIのGPT-4oに匹敵する性能を持ち、コーディングや推論タスクに優れていながらも、アクティブなパラメータ数を抑えている。
Mixture of Experts (MoE)アーキテクチャ:両モデルはこのアーキテクチャを採用しており、特定のタスクに必要なパラメータのみを動かすことで、リソース効率を最大化している。
なぜ重要?
Llama 4 ScoutとMaverickの登場は、オープンソースAIにとって大きな飛躍を意味する。開発者や企業にとって、より効率的かつ強力なツールを提供するだけでなく、WhatsApp、Messenger、Instagramなどへの統合は、Metaが日常のアプリケーションに先進的AIを組み込むことに本気で取り組んでいる証でもある(少なくとも自社エコシステム内では)。
ICYMI
AGI could revolutionize many fields - from healthcare to education - but it's crucial that it’s developed responsibly.
Today, we’re sharing how we’re thinking about safety and security on the path to AGI. → goo.gle/3R08XcD
— Google DeepMind (@GoogleDeepMind)
2:11 PM • Apr 2, 2025
コンテキスト
AGIを遠い未来の話ではなく目前の現実と捉えている
DeepMindはその姿勢を変えてきている:AGIはもはや遠い理論上の話ではなく、“間近”に迫っている。この投稿は警告というよりはロードマップであり、内部的に本気で近いと考えていることを示している。
「安全性を最初から組み込む」AGIの構築
技術の歴史では能力の後に安全対策が来ることが多いが、DeepMindはそれを逆にして最初から安全性を組み込む。例えるなら、事故で学ぶのではなく、最初から慎重すぎる自動運転車を設計するようなもの。
AGIレベルでの「レッドチーミング」を提唱
より大胆なアプローチのひとつがこれ:敵対的なシナリオ、シミュレーション、社会からのフィードバックなどを通じてAGIモデルをストレステストする——つまり、インテリジェンスそのものに対するサイバーセキュリティのような取り組み。
なぜ重要?
大手AGIラボが「技術はほぼ到達している」と公に言ったのは初めてのことだ。そして、ただゴールを目指すのではなく、検証・協力・さらには批判までも歓迎する姿勢を示している。この分野でありがちな誇大広告とは異なる、「自信」と「慎重さ」が同居するまれなバランスだ。