ザ・デイリー・カレント ⚡️
クリエイティブな人々、ビルダー、先駆者、そして常に境界領域へとさらに踏み込んでいく思想的リーダーたちへようこそ。
ここに選挙ニュースはありません。今日はインターネットを使う勇気のある方々のために、このニュースレターを完全に選挙関連のニュースなしにしました。AIの能力を評価するためにピクショナリーを使用することから、AmazonのAI生成の要約が視聴者の体験を向上させ、ストライキ中のPerplexityの議論を呼ぶ申し出まで、政治以外にも考えるべき楽しいことがたくさんあります。
🔌 これらのヘッドラインに注目:
AI愛好家たちは、ピクショナリーやマインクラフトのようなゲームを、ラージランゲージモデルの問題解決能力と推論能力をテストするための新しいベンチマークとして使用しています。これらのゲームベースのテストは、従来のAIベンチマークと比較して、より直感的で「ゲーム化不可能」な評価を提供することを目的としています。従来のベンチマークはしばしば暗記に頼ったり、無関係なトピックをカバーしたりすることが多いです。これらの方法に可能性を見出す研究者もいれば、現実世界の推論スキルを測る効果に懐疑的な研究者もいます。

Paul Calcraftは、AIモデルの問題解決スキルをテストするためのピクショナリーのようなゲームを開発しました。
Adonis Singhは、AIモデルの能力をマインクラフトでテストするツールMcbenchを作成しました。
これらのゲームベースのベンチマークは、「ゲーム化不可能」であり、モデルがそのトレーニングデータを超えて考えることを強いることを目的としています。
ゲームは、AIモデルの性能をテキストベースのベンチマークと比較する視覚的で直感的な方法を提供します。
一部の研究者は、マインクラフトのAIテストベッドとしての効果に懐疑的です。
🙃 研究の観点から興味深いことですが、親しみのあるゲームを新しいAIベンチマークとして使用することで、これらの賢い研究者たちは、一般の人々にとって複雑な人工知能の世界を少しでも身近で理解しやすいものにしています。
AmazonのPrime Videoが、テレビ番組や映画のAI生成の要約を導入しています。この新機能は、以前のエピソードやシーズンの短い要約を作成し、視聴者が見逃したり忘れたりしたコンテンツを素早くキャッチアップできるようにします。要約は主要なプロットポイントとキャラクターの発展に焦点を当てており、視聴体験を向上させ、プラットフォーム上でのコンテンツ発見を改善することを目的としています。

AI生成の要約は、最初は選ばれたショーで利用可能になりますが、より多くのタイトルに拡大する予定です。
要約は、主要なプロットポイント、キャラクターの発展、および重要なイベントの簡潔な概要を提供します。
この機能は、シーズン間の休憩を取った視聴者にとって有用です。
要約は、一部のタイトルでは人間が書いた要約と並行して利用可能です。
🏃♂️ 既存のビジネス内でのAIの実用的な応用の成長するリストに追加し、再視聴者の再入場の障壁を減らすこの戦略を用いることで、Amazonは競争が激化するストリーミング市場での視聴者離れの一般的な問題に取り組んでいます。
Ziff Davisの幹部による新しい研究では、OpenAI、Google、およびMetaなどの主要なAI企業が、ラージランゲージモデル(LLM)を訓練するためにプレミアム出版社のコンテンツに大きく依存していることが示されています。

GPT-2を訓練するために使用されたOpenAIのOpenWebTextデータセットのオープンソースの複製の分析では、調査された15のプレミアム出版社からのURLが全体の約10%を占めていることがわかりました。
この発見は、2023年のNews/Media Allianceの研究と一致しており、人気のあるLLMデータセットが、一般的なウェブコンテンツと比較して出版社のコンテンツを5から100倍の割合で過剰評価していることを示しています。
Ziff Davisは、業界を教育し、AI企業との会話を情報提供するためにこの研究を実施しました。まだ主要なAI契約を締結していないため、競争相手のような大きなAI契約は結んでいません。
🤔 想定内の見出しですが、重要なのは、実際にプレミアムコンテンツに依存する程度が、ニューヨークタイムズのような出版社にとって、法的戦いを続ける中でより大きなレバレッジを意味するということです。
PerplexityのCEO Aravind Srinivasが、テクノロジー労働者のストライキ中にThe New York TimesにAI企業のサービスを提供する申し出をしたことで論争を巻き起こしました。この申し出はソーシャルメディアで公に行われ、ストライキ中の労働者を置き換える試みとして広く受け取られ、ストライキ破りの非難を受けました。Srinivasは後に、労働者をAIで置き換えるのではなく、技術インフラストラクチャーのサポートを提供する意図であったと説明しました。この事件は、AI企業と伝統的なメディアとの間の緊張、およびAIが労働紛争において果たす役割に関する倫理的懸念を浮き彫りにしています。

NYTテックギルドの労働者は、2024年11月4日に2.5%の年次賃上げとその他の改善を求めてストライキを開始しました。
PerplexityのCEO Aravind Srinivasは、ストライキ中にNYTに企業のサービスを提供することをX(旧Twitter)で公に申し出ました。
ストライキ中の労働者は、NYTでのソフトウェアサポートとデータ分析を担当しています。
Srinivasの申し出は、ストライキ中の労働者を置き換える試みとして広く批判されました。
😆 ちょっとした軽口ですね。PerplexityがNYTからの停止命令を受けた公開の対立の最中に、彼らの良きCEOがストライキに苦しむ出版社に平和のオリーブの枝を差し出すとは。ユーモアのセンスか、トーンの無神経か?
Boschの最近の研究によると、西洋市場での車内AIの採用は課題に直面しています。将来のモビリティにおけるAIの潜在的な役割が認識されているにもかかわらず、米国、英国、およびドイツのドライバーはこの技術に対する信頼レベルが低いことが明らかになりました。この調査はAIの受け入れにおける世代間の分断を浮き彫りにし、AIを車両に成功裏に統合するためには透明性と信頼性が重要であることを強調しています。

2023年のBoschの研究によると、米国のドライバーのうち28%しか車内AIを信頼していませんが、英国では32%、ドイツでは35%です。
プライバシーとデータ保護は、車両におけるAIに関してドライバーの主要な懸念事項です。
65%のドライバーが運転中のAIの誤った決定を心配しています。
回答者の72%が、AIが将来のモビリティにおいて重要な役割を果たすと信じています。
👵👦🚗 AIの信頼レベルにおける世代間の分断は、若いドライバーが市場に参入する際の好みや価値観が、将来の自動車AIの採用に大きく影響する可能性があることを示しています。
その他の面白い情報:
