• 電時流⚡️
  • Posts
  • OpenAIの高度な研究への評価、検索時代の本当の終焉を示唆?

OpenAIの高度な研究への評価、検索時代の本当の終焉を示唆?

また、Anthropicはジェイルブレイク問題への対処法を見つけたと考えている

⚡️ 見出し

🤖 AI

ビッグテックの設備投資、過去の石油業界のピークを超える – 大手テクノロジー企業の設備投資額が、かつての石油業界のピーク時の支出を上回る水準に達している。[The Information]

ソフトバンク、OpenAI製品に年間30億ドルの投資を表明 – ソフトバンクは、AI能力の強化を目的に、毎年30億ドル相当のOpenAI製品を購入する計画を発表。[The Information]

WhatsAppのChatGPTが画像・ボイスメッセージ入力に対応 – ユーザーはWhatsApp経由でChatGPTに画像やボイスメッセージを送信し、AIがテキストで応答できるように。[Android Authority]

Meta、高リスクAIシステムの開発停止の可能性 – Metaは、新たな方針文書を公開し、特定の「リスクが高い」AIシステムの開発を見送る可能性があると示唆。[TechCrunch]

AIが雇用に与える潜在的経済影響 – AIが経済や雇用市場にどのような影響を与えるか、3つのシナリオを提示。[Bloomberg]

🦾 新興技術

新興市場で安定した普及を見せるステーブルコイン – ステーブルコインが、新興市場の消費者金融、給与支払いなどで実用化されつつある。[TechCrunch]

🤳 ソーシャルメディア

トランプ大統領、米国政府系ファンドの設立を指示 – TikTok関連の可能性も – ドナルド・トランプ大統領が大統領令に署名し、米国政府系のソブリン・ウェルス・ファンド設立を指示。その中にTikTokへの投資が含まれる可能性も。[AP News]

🔬 研究

Metaの最先端AIに対するアプローチ – Metaは、サイバーセキュリティやバイオセキュリティなどの重要リスクを軽減するためのフレームワークを発表。[Meta]

AIによる自己修復型道路の開発 – 研究者らが、バイオマスとGoogle CloudのAIを活用した自己修復型アスファルトを開発。持続可能で耐久性の高い道路の実現を目指す。[Google]

🎱 その他

フレデリック・ダグラスのホログラム展示がボストンで開幕 – ボストンの博物館で、フレデリック・ダグラスのホログラムを用いたインタラクティブな展示が開始。[Axios]

Amazon、実店舗事業で苦戦 – Eコマースの巨人Amazonが、さらなる実店舗閉鎖を発表。コンサルタント曰く「彼らは小売業を本当に理解していないのでは?」。[The Wall Street Journal]

🔌 これに接続して

AIを一つの視点で捉えると、従来の検索エンジンを超えた新技術と言える。OpenAIの「Deep Research」のような新しい推論モデルや自律エージェントは、情報検索のあり方を変革し、機械が専門家レベルの分析や知識統合を実現できるようになっている。

  • 推論モデル(Reasoners): 応答前に「思考トークン」を生成することで問題解決能力を向上させるAI。特に数学や論理分野で効果を発揮。

  • エージェント(Agents): 目標を与えられ、それを独立して遂行する自律型AI。汎用エージェントには課題が残るが、特定領域向けのエージェントは実用性が高まっている。

  • OpenAIのDeep Research: OpenAIのo3 Reasonerを基盤とする研究特化型エージェントで、数分で大学院レベルの分析を生成可能。

  • GoogleのDeep Researchとの比較: Googleの手法は複数の文書を同時に集約するため、要約が表層的になりがち。一方、OpenAIのエージェントは好奇心駆動型の探索を行い、より深い洞察を提供。

  • 今後の展望: 高度な推論モデルと特化型エージェントの統合により、従来は専門家が行っていた作業をAIが担う時代へと移行中。

🔍 AI主導のリサーチツールは、単なる検索結果を超え、より深く構造化されたインサイトを提供する。しかし、常に望ましいわけではなく、例えばPerplexityのように4段落の長い回答が必要な場面と、単にリンクの一覧が欲しい場面がある。

Anthropicのセーフガード研究チームは、「Constitutional Classifiers」という新手法を発表。AIモデルの安全対策を突破する「ユニバーサルジェイルブレイク」への対抗策として開発された。初期プロトタイプは人間による大規模な攻撃に耐える堅牢性を示したが、高い拒否率や計算負荷の増大といった課題があった。その後の改良により、セキュリティを維持しつつ、拒否率を低減し、計算コストも抑えることに成功。

  • ジェイルブレイクの脆弱性: 大規模言語モデルは、依然として安全機構を回避する方法で操作されるリスクがある。

  • 2カ月間の耐久テスト: 独立した評価者が数千回にわたる攻撃を試みたが、いずれもユニバーサルジェイルブレイクには至らなかった。

  • 初期プロトタイプの課題: 攻撃を阻止する効果は高かったが、無害なクエリも拒否する頻度が増え、計算負荷が大きかった。

  • 改良後の成果: 数千の合成ジェイルブレイクプロンプトを用いた自動テストで成功率を95%以上低下させることに成功。

  • 今後の展望: 防御力を維持しつつ、より実用的なモデルへと改良を進めていく。

🛡️ 憲法的分類器の開発は、AIの安全性向上に向けた大きな前進であり、モデルが悪用されるのを防ぐための重要な取り組みとなる。

OpenEuroLLMは、20の欧州の主要研究機関、企業、EuroHPCセンターが協力して取り組む、オープンソースの多言語対応大規模言語モデル(LLM)開発プロジェクト。EUの規制に準拠しつつ、言語・文化の多様性を尊重する透明なAIの開発を目指す。プロジェクトの目的は、高品質なAI技術へのアクセスを民主化し、欧州の競争力とデジタル主権を強化することにある。

  • 透明性と規制準拠: データ、ドキュメント、トレーニング・テストコード、評価指標をオープンに公開し、欧州の価値観と規制に沿ったAI開発を推進。

  • 多言語対応の強化: 既存のモデルを拡張し、EUの公用語すべてに対応。さらに、その他の言語もサポートし、言語・文化の多様性を促進。

  • 官民連携の促進: 開発者や企業、公的機関が協力し、革新を加速させるオープンなコミュニティを形成。

  • 欧州各国の主要機関が参画: 大学、研究機関、企業、HPCセンターが協力し、最先端のAI技術を推進。

🤝 2025年2月1日に正式発足し、欧州委員会のデジタル・ヨーロッパ・プログラムの資金提供を受けるプロジェクトであり、欧州のデジタル戦略において重要な役割を果たす。

 🆕 更新

📽️ 毎日デモ

🗣️ 対話