生成的データ インテリジェンス

AIに関するスタンフォード大学の報告書で、急成長する業界が岐路に立たされていることが判明

日付:

スタンフォード人間中心人工知能研究所 (HAI) は、第 7 回年次 AI インデックス レポートを発行し、繁栄している業界がコスト、規制、世間の懸念の増大に直面していることを報告しています。

502ページ レポート [PDF] は学界と産業界からのものです。HAI 運営委員会は、Anthropic の共同創設者であるジャック クラークと、SRI インターナショナルの人工知能センターのコンピューター科学者レイ ペローによって指揮されています。そのため、バーンイットにはあまりこだわりません。火のついた議論。

その点において、報告書はプライバシーを、個人が自分のデータを使用する大規模言語モデル (LLM) に同意する権利を持つように定義しています。しかし、許可なく構築されたという理由でAI企業が既存のモデルを放棄すべきだとは提案していない。それは苦行ではなく、透明性を示唆しています。

「大量のデータに依存する LLM では、トレーニング データ収集に関して真のインフォームド コンセントを取得することが特に困難です」と報告書は述べています。 「多くの場合、ユーザーは自分のデータがどのように使用されているか、またはその収集範囲を認識していません。したがって、データ収集の実践に関する透明性を確保することが重要です。」

いくつかの係争中の訴訟の結果 ケース GitHub の Copilot に対して反対する場合、透明性が十分ではなく、AI トレーニング データに明示的な許可が必要となり、場合によっては法外な支払いが必要になる可能性があります。

しかし、AI が今後も存続し、現在の形態のまま考慮する必要があると仮定すると、このレポートは自動化された意思決定の可能性と危険性を強調することに成功しています。

「私たちの使命は、政策立案者、研究者、経営者、ジャーナリスト、一般の人々がAIの複雑な分野についてより徹底的かつ微妙な理解を深められるように、公平で厳密に精査された広範なソースのデータを提供することです」と報告書は説明している。

報告書の主な調査結果の中には、「一部のタスクでは AI が人間に勝つが、すべてではない」や「業界は最先端の AI 研究を独占し続けている」など、特に驚くべきものではない。

後者の点に関して、報告書は、産業界が 51 の注目すべき機械学習モデルを生み出したのに対し、学術界からは 15 モデル、産学連携からは 21 モデルが生み出されたと述べています。

4 個の AI ベンチマークのセットでは、クローズド モデル (GPT-10、Gemini など) がオープン ソース モデルを上回りましたが、オープン ソース モデルはより一般的になりつつあります。 149 年にリリースされた 2023 の基盤モデルのうち、65.7 パーセントがオープンソースでした。これに対し、44.4 年は 2022 パーセント、33.3 年は 2021 パーセントでした。

この傾向が続くかどうかは、「フロンティア モデルの価格がはるかに高くなる」という、もう 1 つの主要な調査結果に関連している可能性があります。つまり、最先端の AI モデルをトレーニングするためのコストが、資金豊富な者だけが考慮できるものになった場合、オープンソース モデルがクローズド ソースのライバルとの競争力を高める可能性は低いと考えられます。

「AI Index の推定によると、フロンティア AI モデルのトレーニングにかかる​​コストの中央値は、昨年でほぼ 4 倍になりました」と報告書は述べています。 「特に最先端のモデルのトレーニングコストは前例のないレベルに達しています。たとえば、OpenAI の GPT-78 はトレーニングに推定 191 万ドル相当のコンピューティングを使用しましたが、Google の Gemini Ultra はコンピューティングに XNUMX 億 XNUMX 万ドルかかりました。」

AI にお金を払う価値があるかどうかについては、すでに疑問の声が上がっています。 MIT CSAIL、MIT Sloan、The Productivity Institute、および IBM のビジネス価値研究所による 1 月の調査 発見 「視覚が仕事の重要な要素である仕事の約 4 分の 1 において、人間の労働力を AI に置き換えることは経済的に合理的です。」そして最近のウォールストリートジャーナル レポート テクノロジー企業が AI への投資を必ずしも成果を上げる方法を見つけていないことを示しています。

したがって、すべての 追加料金 AIを活用したサービス強化に向けて。

「米国では AI 規制が急激に増加している」などの他の HAI レポートの調査結果と併せて考慮すると、AI モデルのトレーニングはさらに資本集約的になる可能性があります。報告書によると、米国では昨年、AI関連の規制が25件あり(2016年のXNUMX件から増加)、これらの規制により追加コストが発生するとしている。

さらなる規制の増加、ひいてはコンプライアンスコストの増加につながる可能性のあるもう 66 つの発見は、AI に対する人々の考え方です。 「世界中の人々がAIの潜在的な影響をより認識しており、より神経質になっている」と報告書は述べている。同報告書は、AI が今後 52 ~ 13 年間で自分たちの生活に影響を与えると考える人の数が増加し (XNUMX パーセント、XNUMX ポイント増加)、AI について不安を感じている人の数が増加している (XNUMX パーセント、XNUMX パーセント増加) と述べています。ポイント)。

AI 企業にとってさらに潜在的な問題の原因は、LLM の評価基準が欠如していることです。この状況により、AI 企業はテスト用に独自のベンチマークを選択できます。 「この慣行により、上位の AI モデルのリスクと限界を体系的に比較する取り組みが複雑になっています」と報告書は述べています。

HAIの報告書は、AIが労働者の生産性を高め、科学の進歩を加速すると主張し、「材料発見のプロセスを促進する」DeepMindのGNoMEを引用している。

AI 自動化は特定のタスクの生産性を向上させることが示されていますが、アイデアのソースとしての有用性については依然として議論の余地があります。私たちとしては 報告 最近では、たとえば、実行可能な新素材に対する AI を利用した予測の価値については、依然として懐疑的な意見があります。

いずれにせよ、AI に対して大きな賭けが行われています。ジェネレーティブ AI への投資は、3 年の 2022 億ドルから 25.2 年の 2023 億ドルへと 61 倍に増加しました。また、米国は現在、AI システムの最大の供給源であり、2023 年には 21 の注目すべき AI モデルを保有しています。これに対し、欧州連合からは 15、中国からは XNUMX です。

「AI は相互に関連する 2 つの未来に直面しています」とクラークとペローは書いています。 「第一に、テクノロジーは向上し続けており、ますます使用されており、生産性と雇用に大きな影響を及ぼしています。良い使い方にも悪い使い方にも使えます。第 2 の未来では、AI の導入はテクノロジーの限界によって制限されます。」

今後数年間で、これら 2 つの未来のどちらが支配的になるかがわかるはずです。 ®

スポット画像

最新のインテリジェンス

スポット画像