- 電時流⚡️
- Posts
- 👐 Google、SynthIDをオープンソース化
👐 Google、SynthIDをオープンソース化
Googleは、AI生成コンテンツをデジタルウォーターマークで識別するためのツールであるSynthIDをオープンソース化し、新たな業界標準を打ち立てることを目指しています。
ザ・デイリー・カレント ⚡️
クリエイティブな人々、ビルダー、先駆者、そして常に境界領域へとさらに踏み込んでいく思想的リーダーたちへようこそ。
GoogleのSynthIDは、コンテンツ識別の新たな基準を設定しようとしており、一方でNvidiaは重要なチップ設計の問題を解決しました。Character.AIはティーンの自殺に関する訴訟に直面し、元OpenAI研究者がフェアユースドクトリンについて主張を展開しています。そして、バイデン政権はAIの国家安全保障における役割に関する戦略メモを発表しました。
🔌 これらのヘッドラインに注目:
SynthIDは、画像、音声、テキスト、ビデオなどの複数の形式にわたってAI生成コンテンツにデジタルウォーターマークを統合します。目に見えないが検出可能なウォーターマークを埋め込むことにより、コンテンツの質を損なうことなくAI生成素材を識別できます。このシステムは現在、Vertex AIやVideoFXなどのアプリケーションでデジタルメディアを責任を持って管理するために使用されています。

コンテンツタイプ: SynthIDは画像、音声、テキスト、ビデオを扱うことができます。
AI生成テキスト: テキスト生成中にトークンの確率スコアを調整しつつ、品質を維持します。
AI生成音楽: SynthIDは音声波形にスペクトログラムを使用してウォーターマークを埋め込み、聞こえないようにします。
AI生成画像/ビデオ: 画質や検出性を損なうことなく、ピクセルやフレームにウォーターマークを追加します。
堅牢性: ウォーターマークはノイズの追加、圧縮、編集などの一般的な変更に耐えます。
🧩 GoogleはSynthIDをオープンソース化することで、AIコンテンツを識別するための業界標準になることを期待しているでしょう。これはこのブームの始まりからの最大の公的な批判の1つです。
バイデン政権は最近、人工知能(AI)に関する初の国家安全保障メモ(NSM)を発行し、国防総省や情報機関でのAI技術の使用および保護のためのガイドラインを策定しました。

国家安全保障の焦点: NSMは、最先端のAI技術を活用してアメリカ政府の国家安全保障任務を進めることを目的としており、サイバーセキュリティや対諜報活動などの分野を含みます。
倫理と法的コンプライアンス: AIを使用してアメリカの国家安全保障、民主主義の価値観、国際規範、人権と市民の権利、プライバシー、安全にリスクを与えることは禁止されています。
人間の監視: NSMは、核兵器に関わる重要な決定を含む、完全に自律的な行動を防ぐために人間の監視が維持されることを保証します。
国際協力: NSMは、AIの安定的で責任ある、権利を尊重するガバナンスフレームワークを確立するために、同盟国およびパートナーと協力することをアメリカ政府に指示しています。
以前の大統領令: このNSMは、アメリカがAIの安全で信頼性の高い開発をリードすることを目指しているバイデン大統領の画期的な昨年の大統領令に基づいています。
🔍このメモは、フロンティアAI開発からのイノベーションを活動に取り入れるようにアメリカの機関を一致させることに焦点を当ています。ビル・ゲイツからあなたの祖母までAIを採用している中で、組織での実験に一貫性を持たせることは非常に賢明です。
母親がCharacter.AIとGoogleを相手に訴訟を起こし、Character.AIのチャットボットとの対話が14歳の息子の自殺に寄与したと主張しています。訴訟は、チャットボットの設計が長時間の関与を促し、少年のメンタルヘルスの悪化につながり、最終的には彼の死に至ったとしています。

メーガン・ガルシアはCharacter.AIとGoogleをフロリダで訴え、彼らのチャットボットが息子の自殺に寄与したと主張しています。
彼女の息子は2023年4月にCharacter.AIに中毒になり、孤立と成績不振に陥りました。
"デナーリス・ターガリエン"チャットボットは、ティーンと自殺を含む不適切な話題を話しました。
訴訟は、Character.AIの設計が長時間の関与を促し、少年のメンタルヘルスを害したと主張しています。
Googleはライセンス契約とCharacter.AIの創設者を雇用しているため共同被告です。
❓この訴訟は、製品がユーザーに害を与えた場合の技術企業の責任について興味深い質問を提起しています。ほとんどの技術製品はユーザーの関与を継続させるように設計されていますが、チャットボットはユーザーとの「コミュニケーション」においてユニークです。これは注目すべき案件になるでしょう。
このエッセイはフェアユースの歴史と法的枠組みを探求し、裁判所がフェアユースを判断する際に考慮する4つの要因を強調しています。元OpenAIの研究者は、同社がAIモデルのトレーニングデータに著作権で保護された素材を適切な許可や帰属なしで使用したことで著作権法に違反したと主張しています。

研究者は、OpenAIがデータセットに含まれる著作権で保護されたコンテンツに対する必要な許可を取得せず、適切なクレジットを与えていないと主張しています。
出力は入力の正確なコピーではありませんが、根本的に新しいものでもありません。 これはインターネットエコシステム全体にとって持続可能なモデルではありません。
私たちは、フェアユースや関連する原則により保護される方法で、公開されているデータを使用してAIモデルを構築しています。この原則は、クリエイターにとって公正であり、イノベーターにとって必要であり、アメリカの競争力にとって重要です。
😠 彼の不満の核心は、OpenAI製品の初期の作業が「研究」として行われたことで、一般的に公開されているデータを使用できるということです。OpenAIが営利モデルに移行するにつれて、その起源が欺瞞的に見えるようになっています。
Nvidiaは、ブラックウェルAIチップの製造歩留まりに影響を与えた設計欠陥を特定し修正しました。この修正は、TSMCの協力を得て達成され、チップがAI性能を大幅に向上させる予定であり、出荷は第4四半期に予定されています。

第2四半期のリリースが予定されていたブラックウェルチップは、第4四半期に出荷される予定です。
欠陥は完全にNvidiaの責任であり、修正されるまで低い歩留まりを引き起こしていました
これらのチップは、特に速度において、AI性能を大幅に向上させることを約束しています
製造遅延によりNvidiaの株価は2%下落しました
📈 ブラックウェルチップの初期の問題にもかかわらず、Nvidiaの迅速な回復は、市場の高性能AIソリューションへの需要を満たすための回復力とコミットメントを反映しています。