AI Safety(AI安全性)とは?
読み方: エーアイセーフティ
30秒まとめ
AIシステムが安全に動作し、人間や社会に害を与えないよう保証するための研究分野。
AI Safety(AI安全性)の意味・定義
AI Safety(AI安全性)は、AIシステムが意図した通りに安全に動作し、人間や社会に害を与えないことを保証するための研究分野・取り組みの総称です。具体的には、AIの出力における有害コンテンツの抑制、バイアスの軽減、プライバシーの保護、誤情報(ハルシネーション)の防止、悪用防止、そして将来的な高度AIの制御可能性(アラインメント問題)などが含まれます。AnthropicのConstitutional AI、OpenAIのSafety Systems、GoogleのResponsible AIチームなどが研究をリードしています。EU AI規制法(AI Act)の施行により法的な規制も進んでおり、企業にとってAI Safety対策は技術的課題であると同時にコンプライアンス上の必須要件となっています。