- 電時流⚡️
- Posts
- GoogleのVeo 2の価格は?1秒あたり50セント
GoogleのVeo 2の価格は?1秒あたり50セント
また、SmolVLM2が動画を理解できる最軽量AIを提供

⚡️ 見出し
🤖 AI
Apple、今後4年間で米国に5000億ドルを投資、2万人の研究職を創出 - Appleが米国への5000億ドルの投資を発表。テキサスにAIサーバー向け工場を設立し、今後4年間で2万人の研究開発職を創出予定。[Reuters]
Alibaba、今後3年間で530億ドルをクラウドとAIに投資 - AlibabaがクラウドコンピューティングとAI技術に530億ドルを投資する計画を発表。[The Information]
Grok 3、一時的にトランプ氏とマスク氏への批判的言及を検閲か - xAIのチャットボット「Grok 3」が、元従業員による未承認のシステムプロンプト変更により、イーロン・マスク氏やドナルド・トランプ氏に関する批判的な言及を一時的に検閲していたことが判明。[TechCrunch]
Grok、マスク氏とトランプ氏の「誤情報拡散」報告をブロック - xAIのチャットボット「Grok」が、イーロン・マスク氏やドナルド・トランプ氏が誤情報を拡散したとする検索結果をブロックし、内部調査とシステムプロンプトの調整が行われる事態に。[The Verge]
Vertex AI 価格情報 | Google Cloudの生成AI - Google CloudがVertex AIの価格モデルを発表。トレーニング、デプロイ、予測の各段階で柔軟な料金体系を提供。[Google Cloud]
OpenAI、監視ツール開発に関与した疑いのあるアカウントを停止 - OpenAIが、監視ツールの開発に関与している可能性のあるアカウントを停止。中国関連の団体が関与している可能性があると報道。[Bloomberg]
Nvidia、RTX 5090および5070 Tiの製造問題を認める - NvidiaがRTX 5090および5070 TiのGPUに0.5%未満の確率で発生する製造上の欠陥を認める。軽微な性能低下が見られ、交換対応を実施。[The Verge]
AmazonのAnthropicへの投資、140億ドルの評価額に - AmazonのAIスタートアップAnthropicへの出資額が140億ドルに達し、2023年の初期投資から75%増加。[Business Insider]
MetaとOpenAIのAIモデルをトレーニングするジャーナリストたち - Outlier社などの企業が、MetaやOpenAIのAIモデルのトレーニングのためにジャーナリストを雇用していることが明らかに。[Nieman Lab]
HumaneのAI Pin、来週から使用不能に - HumaneのAI Pinが2月28日以降に機能停止し、事実上の電子廃棄物に。[Wired]
🦾 新技術
NEO Gamma登場 - 1X Technologiesが高度な自律性と安全性を備えた家庭向けヒューマノイドロボット「NEO Gamma」を発表。[1X Technologies]
Bybit、過去最大級の仮想通貨ハッキング後に40億ドル超の流出 - 仮想通貨取引所Bybitが15億ドルのハッキング被害を受け、ユーザーによる40億ドル超の出金が発生。[CoinDesk]
⚖ 法律・規制
Coinbase、SECが訴訟を取り下げる見込みと発表 - Coinbaseが、SEC(米証券取引委員会)が同社に対する訴訟を取り下げる可能性が高いと発表。罰則や業務変更なしに運営継続が可能に。[The Information]
エルトン・ジョン氏、AIによる著作権侵害防止のため英政府に法改正を要請 - エルトン・ジョン氏が、AIによるアーティストの作品無断使用を防ぐため、英国の著作権法の見直しを求める。[The Guardian]
🎱 ランダムニュース
Apple、iPhone 16eを最後に低価格スマホ市場から撤退 - Appleが低価格スマートフォン市場から撤退を決定し、iPhone 16eが最後のモデルに。M4 MacBook Airの発売計画も確認。[Bloomberg]
ウォーレン・バフェット氏、バークシャー・ハサウェイの記録的納税額を強調、政府に賢明な支出を促す - ウォーレン・バフェット氏が、バークシャー・ハサウェイの過去最高の納税額を発表し、政府に慎重な財政管理を呼びかける。[Fox Business]
HumaneのAI Pin、来週から使用不能に - HumaneのAI Pinが2月28日以降に機能停止し、事実上の電子廃棄物に。[Wired]
🔌 これに接続して
Googleは、AI動画生成モデル「Veo 2」の価格を1秒あたり0.50ドル(約75円)に設定しました。これにより、1分あたり30ドル(約4,500円)、1時間あたり1,800ドル(約27万円)となり、高品質な動画制作向けのプレミアムツールとして位置づけられています。

コスト比較: Veo 2の価格は高額に思えますが、従来の映画制作費と比べると大幅に低コストです。例えば、「アベンジャーズ/エンドゲーム」の制作費は約3億5,600万ドル(約535億円)で、1秒あたり約3万2,000ドル(約480万円)に相当します。
コンテンツの活用: Veo 2が生成する動画は通常2分程度であり、すべての映像が最終的に使用されるわけではないため、不要な部分にも料金が発生する可能性があります。
市場での位置づけ: Veo 2の「秒単位の従量課金モデル」は、OpenAIの「Sora」のような月額200ドルのChatGPT Proサービスとは異なるアプローチです。
クレジットパッケージ: GoogleはVeo 2向けにさまざまなクレジットパッケージを提供しており、例えば「Small Pack(200クレジット)」は29.90ドルで、最大8秒の動画を生成できます。クレジットは購入日から1年間有効です。
Tried Google's new AI video model Veo 2 today on @FAL
It has image2video which makes it VERY useful for Photo AI
It's about 5-10x more expensive at $2.50 to $5 per video than all the competing video models (like Hailuo and Kling)
But from first look it does look to be… x.com/i/web/status/1…
— @levelsio (@levelsio)
9:53 PM • Feb 23, 2025
🎥 Veo 2の価格設定は、プロフェッショナルや企業向けに設計されており、初期費用は高額に見えるものの、全体の制作コストやスケジュールを大幅に削減できる可能性があります。
Hugging Faceが発表した「SmolVLM2」は、動画理解を強化するための軽量AIモデルシリーズです。2.2B(22億)、500M(5億)、256M(2億5,600万)のパラメータ構成があり、高度な動画解析を大規模な計算リソースなしで実現します。

モデルの効率性: 2.2Bモデルは性能とリソース消費のバランスが取れており、Google Colab(無料版)などのプラットフォームでも動作可能です。
ベンチマーク性能: SmolVLM2は「Video-MME」ベンチマークで優れた成績を収めており、さまざまな動画タイプや長さの解析に対応できます。
デバイスの多様性: 500Mおよび256Mモデルは、スマートフォンやエッジデバイスなど、計算能力が限られた環境向けに最適化されています。
視覚理解の向上: 2.2Bモデルでは、画像内の数学的問題の処理、写真内のテキスト認識、複雑な図の理解が改善されています。
開発者向けの統合: SmolVLM2はMLXに対応し、PythonやSwiftのAPIが利用可能。Transformersライブラリにも統合されており、開発者が簡単に導入できる設計になっています。
we just dropped SmolVLM2: world's smollest video models in 256M, 500M and 2.2B ⏯️🤗
we also release the following 🔥
> an iPhone app (runs on 500M model in MLX)
> integration with VLC for segmentation of descriptions (2.2B)
> a highlights extractor (2.2B)— merve (@mervenoyann)
2:05 PM • Feb 20, 2025
👁️ SmolVLM2の登場により、計算資源の制約があるエッジデバイスでも高度な動画解析が可能になり、幅広いアプリケーションの展開が期待されます。
米国の学校では、カウンセラー不足を補うためにAI駆動のチャットボットを導入し、学生のメンタルヘルス支援を強化しています。特にカウンセリングサービスが限られている地域では、これらのツールが即時支援の提供とサービス格差の解消に貢献しています。

Sonnyのハイブリッドアプローチ: 「Sonny」はSonar Mental Healthによって開発され、AI技術と人間による監視を組み合わせたシステムです。心理学や危機介入の専門家がAIの生成した回答を監視し、正確性と共感性を確保しています。現在、9つの学区で4,500人以上の学生が利用しています。
運用時間と監視: Sonnyは東部時間の午前8時から午前2時まで利用可能で、専任チームが複数のチャットを同時に監視しています。学生が自傷や他者への危害を示唆した場合、即座に保護者、学校関係者、必要に応じて法執行機関に通知されます。
データ活用による支援強化: システムは匿名データを集約し、学校が学生のメンタルヘルスの傾向を分析できるようにします。例えば、試験期間中にストレス関連のメッセージが増えた場合、追加のサポートを提供するなどの対応が可能です。
コストとアクセス: 学校はSonnyの導入に年間2万~3万ドル(約300万~450万円)を投資するケースが多く、この資金はメンタルヘルス助成金によって賄われることもあります。この投資は、カウンセラー不足の中で学生の支援を強化するための予防策とみなされています。
An AI chatbot is training humans how to text with teens in need of mental-health support. I have details on a human-AI chatbot schools are using amid a counselor shortage wsj.com/tech/ai/studen… via @WSJ
— Julie Jargon (@juliejargon)
3:15 PM • Feb 22, 2025
🤖 AIチャットボット「Sonny」は、迅速な支援を提供し、サポートが必要な学生を特定するのに役立ちますが、専門家は「人間のセラピストの代替にはならない」と指摘しています。あくまで補完的なツールとして、メンタルヘルス支援を強化する役割を果たしています。
🆕 更新
Introducing NEO Gamma.
Another step closer to home.— 1X (@1x_tech)
7:00 PM • Feb 21, 2025
🚀 Day 0: Warming up for #OpenSourceWeek!
We're a tiny team @deepseek_ai exploring AGI. Starting next week, we'll be open-sourcing 5 repos, sharing our small but sincere progress with full transparency.
These humble building blocks in our online service have been documented,… x.com/i/web/status/1…
— DeepSeek (@deepseek_ai)
4:00 AM • Feb 21, 2025
📽️ 毎日デモ
🚀 I built one of the first 3D single & multiplayer game with Grok 3! Think 3D movement, raycasted worlds. Here’s the journey
— Dan (@Daniel_Farinax)
7:27 PM • Feb 21, 2025
🗣️ 対話
china just dropped Step-Video-T2V, a new high-quality video model 🔥
> 30B parameters
> text-to-video
> 204 frames
>quality & turbo mode— Dreaming Tulpa 🥓👑 (@dreamingtulpa)
5:13 PM • Feb 23, 2025
The efficiency breakthrough in DeepSeek's R1 architecture can now be ported to other LLMs!
New method needs just 0.3-0.6% of original training data:
- Slashes KV cache by 92%
- Minimal performance impact
- Works with Llama2-7B 🔥Trending on alphaXiv🚀
— alphaXiv (@askalphaxiv)
8:58 PM • Feb 23, 2025
people actually greet LLM’s, say thanks after responses and say goodbye when done with conversations…
This is what they’re talking to.
— ₕₐₘₚₜₒₙ — e/acc (@hamptonism)
6:54 PM • Feb 23, 2025