生成的データ インテリジェンス

Google、AIチームをまとめて新しいモデルを推進

日付:

Google は、より高性能なシステムの開発を加速するために、生成 AI に取り組んでいるさまざまなチームを DeepMind チームの下に統合しています。

決定、 受け継がれた CEOのサンダー・ピチャイ氏が木曜日に発表したこの計画は、チョコレート工場でのAI開発を中心としたこれまでの統合の取り組みを基礎としている。昨年、この検索大手は、DeepMind チームと Brain 部門を統合して、紛らわしいことに Google DeepMind と呼ばれるグループを設立しました。このチームは、Google の Gemini チャットボットの背後にあるモデルのトレーニングを最終的に担当しました。

ピチャイ氏は現在、AI モデルを構築しているすべてのチームを 1 つの屋根の下に移動させることを計画しています。

同氏は、「この作業はすべて Google DeepMind に置かれ、ユーザー、パートナー、顧客に有能な AI を提供する能力を拡張することになる」と書き、この変更により Google Research は基礎的および応用的なコンピューターの調査にさらに注力できるようになると付け加えた科学。

Google のいわゆる Responsible AI チームも DeepMind チームに加わり、新しいモデルの開発初期においてより大きな役割を果たすことが期待されています。 Googleは、すでに他の責任グループを中央のTrust and Safetyチームの下に移しており、より広範なAIテストと評価プロトコルを構築する予定であると述べた。

この動きはおそらく、GoogleのBardやその後のGeminiチャットボットなど、初期の生成AI製品の多くを悩ませてきた厄介な問題を回避するために行われたものと考えられる。

2月にGoogleは、 サスペンド Gemini のテキストから画像への生成機能は、特定の歴史的文脈におけるヨーロッパ人やアメリカ人を正確に表現できなかった。たとえば、1943 年のドイツ兵の画像を生成するように依頼すると、一貫して白人以外の人物の画像が生成されます。

これを避けるために、Googleは「AIを活用した機能の起動要件を標準化し、応答が正確でユーザーに即応していることを確認するために、脆弱性の『レッドチーム』テストとより広範な評価への投資を増やしている」とピチャイ氏は述べた。

言い換えれば、Google は現在、Microsoft や OpenAI などと並んで生成 AI の有力企業としての地位を確立しているため、ユーザーが不正動作をする前に自社モデルを不正動作させる方法を見つけるのにもう少し時間を費やすことになるだろう。

AI のガードレールを回避して、自殺方法など、虐待的、有害、危険なコンテンツや提案を生成することは、危険な行為となっています。 主要問題 モデルビルダー向け。

統合の取り組みは AI ハードウェア開発にも及びます。この変更により、プラットフォームおよびエコシステム チームとデバイスおよびサービス チームが、プラットフォームおよびデバイスと呼ばれる新しいグループに統合されることになります。この動きの一環として、コンピューテーショナル・フォトグラフィーとオンデバイス・インテリジェンスに取り組む従業員も、統合されたハードウェア部門に加わることになります。

ピチャイ氏は従業員に対し、個人的な復讐心を自宅に残しておくよう警告してメモを締めくくった。

「ここはビジネスであり、同僚を混乱させたり、危険を感じさせたり、会社を個人のプラットフォームとして利用しようとしたり、破壊的な問題をめぐって争ったり、方針を議論したりするような行動をする場所ではない」と同氏は書いた。

ピチャイ氏のコメントは28人の従業員に言及しているようだ 今週解雇された Google とイスラエル政府の取引に抗議したとして、しかし、それらがイスラエル政府にも当てはまることに疑いの余地はありません。 倫理的な地雷原 AIの分野は急速に発展しています。 ®

スポット画像

最新のインテリジェンス

スポット画像

私たちとチャット

やあ! どんな御用でしょうか?