NISTによるAIの安全性向上の責任
タイトル
国立標準技術研究所(NIST)による人工知能(AI)の信頼性向上に向けた取り組み
目次
- はじめに
- エグゼクティブオーダーについて
- NISTの役割と責任
- 3.1 セーフティとセキュリティのガイドライン開発
- 3.2 評価と測定基準の整備
- 3.3 AIテスト環境の作成
- NISTの取り組み
- 4.1 生成型AIのためのリソース開発
- 4.2 安全なソフトウェア開発の枠組み整備
- 4.3 AI能力の評価と監査ガイドラインの作成
- 4.4 核酸合成のためのスクリーニング基準の整備
- 4.5 合成コンテンツの認証とトレーサビリティの向上
- NISTとの協力と参加
- まとめ
- 参考資料
📖 はじめに
国立標準技術研究所(National Institute of Standards and Technology、NIST)は、人工知能(Artificial Intelligence、AI)のセーフティと信頼性向上に向けて重要な役割を果たしています。本記事では、NISTがエグゼクティブオーダーに基づいて担当する役割と具体的な取り組みについて説明します。
🌐 エグゼクティブオーダーについて
エグゼクティブオーダーは、米国大統領によって発令される行政命令の一種です。2023年10月30日に発布されたバイデン大統領による「安全でセキュア、信頼性の高い人工知能に関するエグゼクティブオーダー」により、AIの安全性とセキュリティのための新たな基準が策定されることが指示されました。このエグゼクティブオーダーは、個人のプライバシー保護、公正と市民権の促進、イノベーションと競争力の向上、アメリカのリーダーシップの強化など、多くの側面にわたっています。
🏢 NISTの役割と責任
NISTは、米国商務省に所属する連邦機関であり、米国のイノベーションと産業競争力の促進を使命としています。NISTは、信頼性のあるテクノロジーの確立に向けて、幅広い研究と実務経験を持つ機関としての評価を受けています。NISTは、AIのリスク評価と管理に関する科学的な仕事を通じて、信頼性のあるAIの開発と責任ある利用を促進するために貢献しています。
3.1 セーフティとセキュリティのガイドライン開発
NISTは、エグゼクティブオーダーに基づいて、AIシステムのセーフティとセキュリティを向上させるためのガイドラインと最良の慣行を策定する役割を担当します。具体的には、生成型AIに焦点を当てたコンパニオンリソースやセキュアなソフトウェア開発フレームワークの作成を行います。これにより、セーフでセキュアかつ信頼性の高いAIシステムの開発と展開を支援します。
3.2 評価と測定基準の整備
NISTは、AIシステムのリスクやインパクトの評価と測定基準の開発に力を注いでいます。AIシステムのリスクとインパクトを適切にマッピングし、評価と管理を支援するための測定科学と基準の整備を行います。これにより、産業界や学術界、政府機関がAIのリスクをより効果的に評価、マッピング、管理できるようになるでしょう。
3.3 AIテスト環境の作成
NISTは、AIシステムの評価やテストをサポートするためのテスト環境の整備にも取り組んでいます。AIシステムのセーフティと信頼性を確保するために、テストガイドラインやテスト環境の作成を行います。また、AIシステムの評価やテストに利用できる環境を提供することで、開発者と利用者がマッピング、測定、ガイドラインに基づいたテストを行うことができるようになります。
📚 NISTの取り組み
NISTは、エグゼクティブオーダーに基づいて以下の取り組みを行っています。
4.1 生成型AIのためのリソース開発
NISTは、生成型AI(Generative AI)に特化したリソースの開発を行っています。生成型AIは、さまざまな産業や社会に革新をもたらす可能性がありますが、現在は十分なガイドラインが整っていません。NISTは、生成型AIに特有のリスクに対処するためのガイドラインやベストプラクティスの開発に取り組んでいます。生成型AI公開ワーキンググループの設立やガバナンスプラクティスの策定など、産業界と広範な利害関係者の協力により、生成型AIのリスクに対処するためのガイドラインを提供します。
4.2 安全なソフトウェア開発の枠組み整備
NISTは、安全なソフトウェア開発のためのフレームワーク整備にも取り組んでいます。エグゼクティブオーダーに基づいてNISTが作成するコンパニオンリソースは、生成型AIと二重使用基盤モデルに対応した安全なソフトウェア開発のベストプラクティスを組み込んだフレームワークとなります。これにより、安全でセキュアで信頼性の高いAIシステムの開発に貢献します。
4.3 AI能力の評価と監査ガイドラインの作成
NISTは、AI能力の評価と監査に関するガイドラインの作成にも注力しています。特に、有害な影響を引き起こす可能性のあるAI能力に焦点を当てて、ガイドラインとプロセスを策定します。また、産業界や関連する利害関係者と協力して、潜在的なリスクを評価し、AI能力のテストと監査を行うためのガイドラインを開発・改善する予定です。
4.4 核酸合成のためのスクリーニング基準の整備
NISTは、核酸合成のリスクを最小限に抑えるためのスクリーニング基準の整備にも努めています。バイオテクノロジーが進化する中で、核酸合成に伴うリスクが増大しています。NISTは、産業界や関連する利害関係者と協力し、核酸合成のリスクスクリーニングに関する最良の慣行やセキュリティ基準を策定するための作業を進めています。
4.5 合成コンテンツの認証とトレーサビリティの向上
NISTは、合成コンテンツの認証とトレーサビリティの向上に向けたガイドラインを策定するための取り組みも行っています。合成コンテンツのラベリングや識別、ウォーターマーキング、合成AIによる児童ポルノや不正なプライバシー侵害などの検出のガイドラインを開発します。また、テストソフトウェアや監査方法に関する現行の慣行と、合成コンテンツの監査とメンテナンスの最新の手法についてまとめたレポートを作成する予定です。
🤝 NISTとの協力と参加
NISTは、産業界や学術界、市民社会との協力を重要視しています。NISTは広範な意見を集めるために、公開ワークショップや情報提供の要求、意見交換のセッションを通じて、幅広い利害関係者との積極的な協力を行います。NISTは、AI信頼性とセキュリティに関する情報の提供やフィードバックを積極的に求めるためのAI EOウェブサイトを提供します。皆様のご協力とご意見をお待ちしております。
📝 まとめ
NISTは、エグゼクティブオーダーに基づいて、AIのセーフティと信頼性向上に取り組んでいます。セーフティとセキュリティのガイドラインの開発や評価基準の整備、AIテスト環境の作成など、様々な取り組みが行われています。NISTは、産業界や学術界、市民社会と協力して、信頼性のあるAIの開発と利用を推進しています。
📚 参考資料