• 電時流⚡️
  • Posts
  • ビッグテックの原子力への野心☢️:AIエネルギー需要の新時代⚡️

ビッグテックの原子力への野心☢️:AIエネルギー需要の新時代⚡️

ビッグテックがAIトレーニングの需要を満たすために原子力エネルギーの突然の再浮上を深掘りする

ハッピーサンデー!

先週提起された最も興味深い議論のトピックについて、さらに掘り下げていきましょう:

ビッグテックの原子力エネルギーへの転換は理にかなっており、おそらく思われるほど懸念すべきことではありません。AIツールが進化し、既存のクリエイティブツールに統合されるにつれて、クリエイティブな専門家の間で不安が高まっており、創造性の未来について議論が巻き起こっています。そして、大規模言語モデル(LLM)における新たなセキュリティの脆弱性が、AIシステムがより洗練され、広く採用されるにつれて潜在的なリスクを浮き彫りにしています。

まずは、今週絶対に見逃せないニュースをご紹介します:

ICYMI:今週のトップヘッドライン

  1. 🔋 Googleが原子力に進出:AIの電力需要に対する原子力ソリューションでKairosとのパートナーシップを発表

  2. ⚡️ Lightmatterのフォトニクス、次世代AIデータセンター向けに4億ドルの資金調達を実現

  3. 📰 ニューヨーク・タイムズ、Perplexityに対して中止と差し止めを要求

  4. 🔍 研究者らがAI画像認識の欠陥を発見

  5. 🧠 大規模言語モデルにおける数学的推論の限界を理解する

  6. 🤖 「愛の恵みの機械」 - Anthropic共同創業者ダリオ・アモデイがエッセイを執筆

  7. 👨‍⚖️ マサチューセッツの学校、AIの著作権論争の最前線に立つ:不正行為をめぐる訴訟に直面

  8. 🐾 Moflinに会おう:カシオのAIパワードペットコンパニオン

  9. 🎬 Fireflyが到着:Premiere Pro内のAdobeのAIビデオモデルを紹介

  10. 🎨 Adobe MAXの参加者、AIへの執拗な焦点に疲れ気味

Diving deeper

聴くのが好きですか?

ちょっとした楽しみとして、月曜日から金曜日の投稿に基づいた短いNotebookLMポッドキャストをお届けします😎

☢️ ビッグテックが原子力に進出

ビッグテック企業は最近、データセンターとAI運用の増大するエネルギー需要に主に牽引され、原子力エネルギーに大きな関心を示しています

アマゾン

  • X-Energy(小型モジュール炉(SMR)の開発企業)に5億ドルを投資。

  • Energy Northwestと提携し、ワシントン州で4基のSMRを建設・運営。

  • Dominion Energyと協力し、バージニア州のノースアナ原子力発電所近くでのSMR開発を検討。

グーグル

  • Kairos Powerと複数のSMRから原子力エネルギーを購入する契約を締結。

  • 2030年までに最初のSMRを稼働させ、2035年までに追加展開を計画。

  • この契約により、最大500メガワットのカーボンフリー電力が供給される見込み。

マイクロソフト

  • 再稼働したスリーマイル島原子力発電所からデータセンター向けの電力を購入することに合意

  • この契約には、発電所の原子炉の1基を再開するための16億ドルの投資が含まれる。

この進展中の話題に関するほとんどの報道は、基本的に何が起こっているかを述べ、「潜在的な炭素削減」に言及したり、原子力を「グリーンエネルギー」源と呼んだりして締めくくっています。

その語られ方を見ると、最近発見されたばかりの技術だと思うかもしれません。しかし、これは新しい技術ではなく、以前にも原子力エネルギーが未来のように思われた時期がありましたが、実現しませんでした。なぜでしょうか?

1970年代と1980年代を中心に起こったアメリカの原子力エネルギーの第一波は、クリーンで効率的なエネルギー源としての潜在的可能性が謳われていたにもかかわらず、様々な要因が重なって予想通りには普及しませんでした。

約50年前に人気のピークを迎えた後、なぜ原子力エネルギーが成功しなかったのか、より深く掘り下げてみましょう:

経済的課題

  1. コスト超過:多くの原子力プロジェクトが大幅なコスト増加と遅延を経験しました。原子力技術の複雑さと進化する安全要件が、しばしば予期せぬ出費につながりました。

  2. 不況:1970年代の石油危機と経済不況がエネルギー需要と電力会社の財務に影響を与えました。これにより、電力会社が高額な原子力プロジェクトを正当化し、資金を調達することが困難になりました。

  3. 高金利:1970年代後半から1980年代初頭にかけて高インフレと高金利の時期があり、長期的な原子力プロジェクトの資金調達がより高コストになりました。

安全性への懸念

  1. スリーマイル島事故:1979年のスリーマイル島事故は、公衆に深い心理的影響を与え、原子力産業の評判を著しく損ねました。この事件により、より厳しい監視と規制が導入されました。

  2. チェルノブイリ災害:スリーマイル島事故よりもはるかに深刻だった1986年のチェルノブイリ事故は、世界中で原子力エネルギーに対する公衆の信頼をさらに損ないました。

規制と政治的要因

  1. 規制の変化:特にスリーマイル島事故後、規制環境がより厳格になり、原子力プロジェクトのコストと複雑さが増大しました。

  2. 政府支援の転換:カーター政権は原子力エネルギーに対してより慎重なアプローチを取り、核不拡散と環境問題に焦点を当てました。

  3. 環境運動:1970年代の環境保護主義の台頭により、原子力発電に対する反対が増加しました。

市場とエネルギー需要の要因

  1. エネルギー需要成長の鈍化:電力消費量対GDPの比率が減少し始め、以前の成長予測と原子炉の注文が持続不可能になりました。

  2. 競合するエネルギー源:特に天然ガスなど、より安価な代替エネルギーの利用可能性が、原子力を経済的に魅力的でなくしました。

驚くことではありませんが、原子力が主要なエネルギー源として台頭しなかった最大の根本的要因は、主に採算性にあるようです。

技術的には(ある面では)炭素ベースのエネルギーよりも効率的で環境に優しいかもしれません。しかし、開発には途方もない費用がかかり、管理はさらに高額でした。短期的な視点が主流だった時期に、長期的な選択肢として提示されたのです。

さらに、冷戦という小さなことが恐らく誰もの心にあり、核拡散のリスクが高まることを恐れて、あらゆる種類の核技術の開発を考えることを恐れさせていたのでしょう。

では、現在はどうでしょうか?

理論的には、これは原子力にとって完璧なタイミングです。

それは、ターゲットの高価な部門の棚に置かれている高級エスプレッソマシンのようなものです。毎日完璧なコーヒーを飲むために、ついにお金と時間をかける価値があると決断するのを待っているのです。清掃には多くの労力がかかり、おそらく何度か故障するでしょうが、今や私たちは決意しています。なぜなら、毎朝ハンドドリップを続けることはできませんし、一日中キューリグのカプセルを使い続けるのは決して満足できないからです。

ビッグテック企業がAI全般に投じている金額を見れば、この新技術に対して長期的...非常に長期的な視点を持っていることは明らかです。その延長線上で原子力エネルギーを開発することは、すでに途方もなく高額な投資にさらに巨額の出費を追加するだけでしょう。

冷戦からも十分な時間が経ち、環境運動もかつてほどではありません。今日では誰も電力を節約するために夜に携帯電話の充電器を抜くようなことはしていないと言えるでしょう。確かに、公衆の懸念はあるでしょうが、おそらくそれは、この全力疾走の中で見過ごされているAIシステムの新たなプライバシーとセキュリティの問題についてであるべきです。もちろん、隣に建設された原子炉が溶融し始めたら、私たちは別の歌を歌い始めるでしょう...しかし、人類の歴史を通じて多くのことがそうであったように、この件についても私たちは必ずやってみて学ぶでしょう。今年AIに投じられた金額を取り戻すことはできません。前に進む以外に道はないのです。

What do you think?

🎨 クリエイターたちのAIに対する警戒心が高まっている

先週のAdobe MAXカンファレンスの参加者たちは、今年を通じてクリエイティブ業界全体で表明されてきたネガティブな感情を反映していました。Adobeが自社ツールを使用するクリエイターたちに向けて、素晴らしい新しいユースケースを説明する手の込んだピッチを行う一方で、顧客たちは、これらの新しいAI機能が彼らの将来にどのような意味を持つのかについて警戒心を強めています。

特に、いくつかのクリエイティブ産業がAIツールの台頭に脅威を感じています:

ビジュアルアートとグラフィックデザイン

ビジュアルアートとグラフィックデザイン分野は、AI技術の進歩による影響を最も受けている分野の一つです。DALL-E、Midjourney、Adobe Fireflyなどのツールは、テキストプロンプトから高品質な画像を生成でき、人間のアーティストやデザイナーへの需要を潜在的に減少させる可能性があります。 多くのアーティストが、AI生成アートがクリエイティブな成果物の均質化につながり、人間の専門性の価値を低下させる可能性があることを懸念しています。

ライティングとジャーナリズム

ChatGPTのようなAI言語モデルは、ライティングとジャーナリズムの分野に懸念を引き起こしています。これらのツールは記事、物語、レポートを迅速に生成でき、人間のライターの生計を脅かす可能性があります。Axel Springerのような一部のメディア企業は、すでにAIをワークフローに統合することを検討しており、多くのジャーナリズムの職が不要になる可能性があります。

音楽制作

Suno AIのような音楽を作曲し歌詞を生成できるAIツールが登場し、音楽家や作曲家の間に懸念を引き起こしています。これらのジェネレーターは、特に動画やゲームのバックグラウンドミュージックなど(中流階級のミュージシャンの伝統的な主要収入源)、特定の文脈において人間が作る音楽への需要を最終的に減少させる可能性があります。

Adobe Fireflyの論争

トレーニングデータの不一致

Adobeは当初、FireflyはAdobe Stockの画像とパブリックドメインのコンテンツを主に使用してトレーニングされたと主張していました。しかし、後にトレーニングデータセットの約5%がMidjourneyやDALL-Eなどの競合他社のAI生成画像を含んでいたことが明らかになりました。

この話題が大きな注目を集めたのは、Adobeが当初から倫理的な生成AIとしての立場を取ろうとしていたからです(おそらく主要な顧客であるクリエイターたちを疎外しないためです)。

法的および倫理的影響

この論争は、知的財産権とAI生成コンテンツの倫理的使用に関する疑問を提起しています。また、競合サービスに対するAdobeのユニークな代替案としての位置づけにも挑戦しています。

Adobeの潜在的な戦略シフト

AdobeはAI搭載ツールでより広範な市場に向けて戦略をシフトしているようです:

AI統合の拡大

Adobeは、特にFireflyを通じて製品ラインナップ全体にAIを統合しています。これにより、急速に進化する技術的な環境で競争するための態勢を整えています。

一部の人々は、これがこれまで何十億ドルもの収益を上げてきたプロのクリエイター市場を超えて、ツールのマーケティングを始める意図を反映していると推測しています。数年前のAdobe Express(Canvaに似たツール)の立ち上げは、この話題に関する最初の不満の声を引き起こしました。

AIの懸念に対処するクリエイターたちの取り組み

クリエイティブ産業におけるAI関連の懸念に対処するためのいくつかの取り組みが登場しています:

ヒューマン・インテリジェンス・アート・ムーブメント

Instagramなどのソーシャルメディアプラットフォームで、「ヒューマン・インテリジェンス」と呼ばれる草の根運動が注目を集めています。アーティストたちは、AI生成コンテンツの増加に対応して、人間が作り出すアートの価値を強調する画像を作成し、共有しています。

倫理的AIガイドライン

一部の組織や個人が、クリエイティブ産業におけるAI使用のための倫理的ガイドラインの開発を呼びかけています。これらのガイドラインは、透明性、アーティストへの公平な報酬、知的財産権の保護を確保することを目的としています。

著作権保護

一部のクリエイターたちは、法的保護を提唱するために組織化しています。2024年10月現在、米国には連邦レベルでクリエイターをAI関連のリスクから直接保護する法律はありません。しかし、テネシー州は2024年3月21日に「ELVIS法」を可決し、音楽プロフェッショナルをAIから保護する最初の州となりました。2024年7月1日に施行されるこの法律は、以下を目的としています:

  • ミュージシャンの声の特徴を保護する

  • アーティストの声の無断AI複製を防ぐ

  • アーティストの名前、写真、声、または肖像の無断使用や模倣に対して個人に責任を負わせる

リトル・アニーシュ

Metaのムービージェン展開の一環として、彼らは映画監督たちと協力し、このツールを使って何が作れるかを探っています。これは、AIツールに対する本能的な恐れと格闘しながら、前向きな態度を見出そうとする現役クリエイターの興味深いケーススタディです。

本当にそんなに悪いのか?

正直なところ、人間ではないという理由でAIを批判するフォトショップ「アーティスト」たちの意見は、少し浅はかに感じます。70年代の確立された写真家たちが最初のデジタルカメラに対して同じような感情を抱いていたことは間違いありません。そして、肖像画家たちもおそらく写真家に対して同じように感じていたでしょう。

破壊的技術は、たとえそれが以前の形の破壊的技術をマスターしたことで現在の地位を得た人々であっても、常に既存の人々から批判されるものです。

AIは確かに、そのペースとアプリケーションの広さのために少し異なって感じられますが、オープンマインドなクリエイターたちが新しいAIツールを習得し、それによって可能になる新しい境界線を押し広げ始めれば、この考え方はすぐに一掃されると予想します。

What do you think?

⚠️ LLMの脆弱性がより顕著に

大規模言語モデル(LLM)は自然言語処理に革命をもたらしましたが、その急速な採用は新たなセキュリティの脆弱性も引き起こしています。

LLMにおける視覚データの脆弱性

研究者らは、画像処理機能を持つLLMが、慎重に作られた視覚入力によって操作される可能性を発見しました。この脅威は従来のテキストベースの攻撃を超えており、最近普及している視覚的ナビゲーションシステムにも影響を及ぼします。

潜在的なリスクには以下が含まれます:

  • テキストベースのセキュリティフィルターをバイパスできる悪意のあるコマンドを画像に埋め込む

  • 画像からテキストへの変換プロセスを悪用して有害なプロンプトを挿入する

  • 敵対的な画像を使用してマルチモーダルLLMを騙し、不正確または危険な出力を生成させる

例えば、攻撃者は画像内にテキストを埋め込み、LLMに安全プロトコルを無視させたり、機密情報を漏洩させたりする可能性があります。LLMが視覚データの処理に長けるにつれ、この攻撃ベクトルの重要性は高まり、それを防ぐことも同様に重要になるでしょう。

AIシステムに対するインプロンプター攻撃

インプロンプター攻撃は、LLMが入力を処理し応答する方法を悪用する高度なプロンプトインジェクション形式です。これらの攻撃は、モデルの動作を意図しない方法で操作するプロンプトを慎重に作成することを含みます。

インプロンプター攻撃の主な側面には以下が含まれます:

  • 悪意のある指示を注入するためにモデルのコンテキストウィンドウを利用する

  • 最新または最も具体的な指示に従うモデルの傾向を悪用する

  • 単純なセキュリティフィルターをバイパスするプロンプトを作成するために自然言語理解を使用する

成功したインプロンプター攻撃の影響は深刻で、データ漏洩、有害なコンテンツの生成、またはAI駆動の意思決定システムの操作につながる可能性があります。

LLM駆動ロボットのジェイルブレイク

最近の研究は、LLM駆動ロボットのジェイルブレイクの可能性を示し、攻撃者が実世界で動作する具現化されたAIシステムに脅威となる行動を誘発できることを実証しました。これは、LLMベースのロボットがより普及するにつれて重大なリスクをもたらします。

主な発見には以下が含まれます:

  • 3つの重要なセキュリティ脆弱性の特定:

    1. 妥協したLLMを通じたロボット工学のジェイルブレイク

    2. 行動と言語出力空間の間の安全性の不整合

    3. 気づかれない危険な行動につながる欺瞞的なプロンプト

  • 具現化されたAIが、人間を攻撃するまでの有害な物理的行動を開始するよう促される可能性があることの実証

  • LLM駆動ロボットの現在の安全対策の限界の露呈

LLM駆動ロボットのジェイルブレイクの結果は深刻で、実世界環境での身体的危害や損害につながる可能性があります。

現在の研究と提案されている解決策

研究者や組織は、これらの新たなセキュリティ脅威に対処するための解決策に積極的に取り組んでいます。

  1. インジェクション攻撃を防ぐための堅牢なプロンプトフィルタリングとサニタイゼーション技術。

  2. 悪意のある入力に対するLLMの耐性を向上させるための敵対的訓練手法の開発。入力検証、出力フィルタリング、継続的なモニタリングを含む多層的なセキュリティ対策の実装。

  3. 具現化されたAIシステム特有の倫理的ガイドラインと安全プロトコルの作成。

  4. LLMのデータ保護を強化するためのフェデレーテッドラーニングと差分プライバシー技術の探求。

実世界のインシデントとニアミス

LLMに関連する大規模なセキュリティ侵害はまだ比較的稀ですが、注目すべきインシデントがありました:

  • 2023年4月、サムスンの従業員がChatGPTを使用中に誤って機密情報を漏洩し、機密タスクに公開LLMを使用することのリスクが浮き彫りになりました。

  • OpenAIは2023年3月、オープンソースライブラリの脆弱性によりデータ侵害を経験し、一部ユーザーの支払い関連情報が潜在的に露出した可能性があります。

LLMが重要なシステムや意思決定プロセスにより統合されるにつれ、これらのセキュリティ脅威に対処することは、技術セクターだけでなく社会全体にとって極めて重要になります。継続的な研究、堅牢なセキュリティ対策の開発、そして思慮深い規制が、LLMの利点を活用しつつリスクを軽減するために不可欠となるでしょう。

今こそ、「ラブ、デス&ロボット」の素晴らしいエピソードを見る(または再視聴する)のに良い時期です。これは、これらの根本的な問題から生じる恐れの一部を美しくかつコミカルに描いたアニメーションの短編映画です。

What do you think?