生成的データ インテリジェンス

新しい米国政府の「安全コンソーシアム」がAIの「警察」を目指す

日付:

米国政府は、当局がテクノロジーのガードレールの強化を推進する中、同国が「安全で信頼できる」生成​​AIと呼ぶものの開発と展開を支援するための新しいコンソーシアムを発表した。

商務省のジーナ・ライモンド長官は木曜日にコンソーシアムを立ち上げた。 200 以上の AI 企業および団体がグループに参加しました。 OpenAI、メタ、グーグル、アマゾン、アップル、マイクロソフト、アンスロピック、エヌビディア、インテル、IBM、JP モルガン・チェース。

このコンソーシアムには、政府機関、マサチューセッツ工科大学やジョンズ・ホプキンス大学などの学術機関、マスターカード、ビザ、BP、クアルコムなどの企業も含まれています。

また、お読みください。  「不正な」AI がテレビでオーストラリア議員の胸を「大きく見える」ようにする 

AI標準の設定

「米国政府は、リスクを軽減し、人工知能の計り知れない可能性を活用するために必要な基準を設定し、ツールを開発する上で果たすべき重要な役割を担っている」とライモンド氏は述べた。 ステートメント.

彼女は、このグループが米国AI安全性協会の下に収容され、ジョー・バイデン大統領の政策で概説された目標の達成に貢献することを明らかにした。 行政命令 10月発行。この命令は、AIの安全性、データプライバシー、標準などに焦点を当てていた。

コンソーシアムの作業には、「レッドチーム、能力評価、リスク管理、安全性とセキュリティ、およびセキュリティに関するガイドライン」の作成が含まれます。 電子透かし 合成コンテンツだ」と同省は述べた。

ライモンドはその後 言われ 記者会見では、コンソーシアムの仕事は「AI安全性研究所の研究とテストが広範なコミュニティと完全に統合されるようにすることである」と述べた。

彼女はまた、コンソーシアムの参加者の範囲についても語り、コンソーシアムを「テストおよび評価チームの最大の集合体」と呼び、「AI 安全性における新しい測定科学」の基盤の構築に焦点を当てると述べた。

商務省 12月には、AIの安全な導入とテストのための主要な標準とガイダンスを作成するための措置を開始したと発表した。この決定は、AI検査の基準を策定し、関連する化学、核、サイバーセキュリティのリスクに取り組むよう政府機関に指示したバイデン氏の命令を受けて行われた。

企業は安全コンソーシアムに反応

コンソーシアムの参加者は、この取り組みを責任ある AI の構築に向けた重要な一歩として賞賛しました。

IBMの会長兼最高経営責任者(CEO)のアルビンド・クリシュナ氏は声明で、「新しいAI安全研究所は、米国製の人工知能が責任を持って、人々が信頼できる方法で使用されることを保証する上で重要な役割を果たすことになる」と述べた。

アゾン社のグローバル公共政策担当上級副社長兼法務顧問のデービッド・ザポルスキー氏は、次のように述べた。 ブログ投稿 同社のコンソーシアムへの関与は、AI の新しい標準の実現に役立つと考えています。

この標準により、「信頼できる AI の開発とその責任ある使用を促進する、実証済みでスケーラブルで相互運用可能な測定と方法論の特定が可能になります」と同氏は述べています。

スケール AI の公共部門ゼネラルマネージャー、ジョン ブレナン氏は次のように述べています。 ステートメント 同社は、AI安全性コンソーシアムが「AIの安全性、安全性、信頼性を確保するための最良の方法はテストと評価とレッドチームであることを認識している」ことを称賛していると述べた。

レッド チームは、攻撃者を装い、企業の指示に従って企業のセキュリティ インフラストラクチャに侵入し、企業がソフトウェアの脆弱性にパッチを適用できるように報告するグループです。この技術は、サイバーセキュリティにおける新たなリスクを特定するために長年使用されてきました。

AI論争

生成 AI は、その名前が示すように、テキスト、画像、音声などの無数のコンテンツ形式を生成できる人工知能テクノロジーの一種です。これは、現在では OpenAI の ChatGPT や Google の Bard として知られている技術の一種です。 双子座.

しかし、この新しいテクノロジーは誤った情報の問題によって台無しになってしまいました。 AI モデルは、説得力があるが完全に捏造された資料を作成することに長けていることがわかっています。

テクノロジー業界では、この種の確信に満ちた嘘を「幻覚」と呼んでいます。 MicrosoftのBing AI Chatは今年初めに完全に機能を失ったと米国の弁護士が 面倒なことになった ChatGPTから得た誤った情報を引用した後。 AIが幻覚を見る例は数多くある。

研究者らは、次のような AI システムのトレーニングに使用されるデータに存在する固有のバイアスを強調しました。 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、、固定観念を永続させる反応につながります。たとえば、TikTok の AI ミーム メーカー フィルターは次のようになりました。 脂肪恐怖症、プラスサイズの女性に「もっと大きなビーチが必要です」と言いました。一部のAIは人種差別で非難されています。

おそらく、生成 AI の最もぞっとする側面は、悪意のある活動に使用されていることです。 ディープフェイク、リアルなビデオや音声の偽造は、プライバシー、虐待、政治的操作、オンライン メディアに対する信頼の低下に対する懸念を引き起こしています。

スポット画像

最新のインテリジェンス

スポット画像