ザ・デイリー・カレント ⚡️

クリエイティブな人々、ビルダー、先駆者、そして常に境界領域へとさらに踏み込んでいく思想的リーダーたちへようこそ。

Metaの新しいスリム化されたLlamaモデルは、「エッジ」(個人用)デバイス用に最適化されたAIを作成するトレンドをさらに例証し、クラウドコンピューティングへの依存を減らします。Perplexityと出版社の間の法的ドラマが続いている一方で、MetaとReutersの協力は、その対立を解決するための積極的なステップを表しているようです。OpenAIによる国家安全保障パートナーシップに対する倫理的枠組みの明確化は、責任あるAI使用に対するコミットメントを示しています。

🔌 これらのヘッドラインに注目:

Metaは、低電力デバイス向けに最適化されたLlama 3.2 1Bおよび3B言語モデルの量子化バージョンをリリースしました。これらのスリム化されたモデルは、強力なパフォーマンスを維持しながらメモリのフットプリントを削減し、推論速度を向上させ、デバイス上およびエッジAI導入に適しています。使用された量子化技術であるQLoRAとSpinQuantは、サイズ削減と処理速度の向上において顕著な改善をもたらしました。

  • 元のフォーマットと比較して平均56%のサイズ削減

  • 推論処理速度が2倍から4倍に向上

  • メモリ使用量が平均で41%削減(Android OnePlus 12スマートフォンでテスト)

  • QualcommおよびMediaTekとの協力により、ArmベースSoC向けに最適化

  • Llama.comおよびHugging Faceからダウンロード可能

💡 これらの量子化モデルのリリースは、パフォーマンスとプライバシーのバランスを取り、クラウドインフラへの依存を減らそうとする企業が増えていることを示しています。

Perplexity AIは、情報の取得と理解を向上させるAIの価値を強調しながら、ニュースコープの訴訟に応答しています。同社は、著作権で保護された資料の不適切な使用の主張を否定し、透明な引用実践と他の出版社との収益共有イニシアチブを指摘しています。法的に防御する準備を整えつつ、PerplexityはAI駆動の検索ツールが情報とのオンラインでのやり取りにおける不可避で有益な進化であることを主張しています。

彼らは、報道された事実が企業によって所有され、その報道された事実で何かを行うには料金を支払わなければならない世界で生きることを好む

Perplexityチーム
  • これは、真の法的根拠を伴う応答というよりも、むしろ公の「反撃」ですが、彼らがどのようにしてこの戦いに挑むかを暗示するのは興味深いです

  • 彼らは、回答に対する情報源のリストとインライン引用の実践を強調しています。

  • PerplexityはすでにTIME、Fortune、Der Spiegelのような出版社と収益共有プログラムを開始しています。

⏱️ Perplexityがニュースメディアの世界に対して悪役として描かれるのは皮肉なことです。もともとは出版社に対して問題を起こさないように誠実な努力をしていたAIツールとして描かれていました(引用を通じて)。しかし、結局のところ、ほとんどのユーザーは彼らが提供するリンクをクリックせず、素晴らしい要約を読むことを好むでしょう。出版社にとっては少々遅すぎたかもしれません…

このパートナーシップは、Reutersの広範なニュースアーカイブとリアルタイムの更新をMetaのAIチャットボットと組み合わせるものです。このプロジェクトは、Meta AIのユーザーがリアルタイムのニュース更新を受け取り、現在の出来事についての議論を行うことを目的としています。

  • 契約には、Reutersのニュースコンテンツ、アーカイブ、リアルタイム更新の使用に関する複数年のライセンス契約が含まれています。

  • この協力は、誤報と戦い、デジタル時代における信頼できるニュースソースを提供することを目指しています。

  • チャットボットは、MetaのAI機能を活用して、ユーザーにパーソナライズされたニュース体験を提供することが期待されています。

  • Reutersは、このパートナーシップを通じてニュース報道における編集の独立性を維持します。

🤔 Metaは公共の議論における役割について自己反省を行っているようです。今年ニュースと政治コンテンツを縮小した後、彼らは「誤報に対処する」ためにニュースのハイパーパーソナライズされたバージョンを作成することを決定しました。Reutersは少なくとも信頼できるニュースアウトレットとしてよく知られています。

ホワイトハウスのAIに関する国家安全保障メモへの応答として、OpenAIは国家安全保障の文脈でのAIに対する立場を明らかにしています。同社は、AIの能力を向上させながら倫理的基準を維持することのバランスを主張しています。OpenAIの国家安全保障パートナーシップの評価フレームワークは、民主的価値、安全性、責任、アカウンタビリティの4つの主要価値によって導かれています。

  • OpenAIは、AIリーダーシップにおいて民主的価値を維持しながら、AIを進化させる米国および同盟国の努力を支持しています。

  • 同社の使用ポリシーは、人々を傷つけたり、財産を破壊したり、兵器を開発するためにその技術を使用することを禁止しています。

  • OpenAIは、民主的価値、安全性、責任、アカウンタビリティの4つの主要価値によって導かれる国家安全保障パートナーシップの評価フレームワークを開発しています。

  • すべての潜在的な国家安全保障パートナーシップは、OpenAIの製品政策および国家安全保障チームによる厳格な内部レビューを経ます。

🪖 これは少し深読みかもしれませんが、OpenAIは、軍事応用に容易に転用される可能性から距離を置く一方で、アメリカ第一のAI企業としてのアイデンティティを確立しようとしているようです。

副大統領ハリスは、責任あるAI開発のための規制枠組みを構築することに賛成していますが、トランプのチームは革新を促進するために最小限の介入を提唱しています。

  • 両者とも、AI開発における米国のリーダーシップを維持する必要性を認識していますが、その方法については異なっています。

  • トランプのキャンペーンは、バイデンのアプローチを革新と経済成長を抑制する可能性があると批判しています。

  • AI政策は、2024年の大統領選挙においてますます重要な問題となっています。

🔍 2024年の選挙におけるAI政策の議論(あるいはその欠如、もっと正確には😆)は、規制と革新の間の根本的な緊張を示しており、技術の急速な進歩に対する社会全体の懸念を反映しています。

Keep reading