「AIって便利だけど、本当に私たちの味方なの?」
そんな疑問を抱く人が、今、増えています。
その背景には、AIによる“人権侵害”のリスクが明らかになってきたからです。
採用における男女差別、そして許可のない性的画像の生成。
こうした深刻な問題に対し、日本政府が本格的な実態調査に乗り出すことが発表されました。
AIが人権を侵害するってどういうこと?
AIは多くの業務を効率化し、私たちの生活を便利にしています。
しかし、その裏側で「意図せず差別的な判断をする」ことがあります。
たとえば、企業の採用活動でAIが女性に不利な評価を出すケース。
実際、アメリカのAmazonでは、AIが「過去の応募者データ」に基づいて男性を優遇するようになってしまい、サービスの利用が停止されたという事例もありました。
また、生成AIを悪用して、他人の顔を使ったわいせつな画像や動画を勝手に作る「ディープフェイク」も社会問題となっています。
国が本格調査へ、AI新法に基づく初の対応
2025年6月に施行された「AI新法」により、国はAIのリスクを調査する権限を持ちました。
これに基づいて、内閣府は企業やサービス提供者に対し、以下のような調査を開始します。
- 採用や人事で使われるAIに差別がないか
- 性的画像を勝手に生成するシステムの実態
- 海外IT企業への聞き取りや報告要請
- 安全対策やインフラへのAI導入状況の確認
この動きは、AIの「光」と「影」の両方を把握し、健全な活用を目指す第一歩といえるでしょう。
AIによる評価は“ブラックボックス”になりがち
AIの問題は、「なぜその判断が出たのか」が分かりにくい点です。
厚労省の報告書でも「AIの判断は検証が難しい」という課題が指摘されています。
これはつまり、人が気づかぬうちに差別や偏見を引き継ぐ危険があるということです。
実際、過去に離職期間があるだけで候補者を一律に除外するようなシステムがあり、出産などで一時仕事を離れた女性が不利になるケースも報告されています。
それでも広がるAI採用システム
このようなリスクがある一方で、AIによる採用支援は企業で急速に広がっています。
たとえば――
- VARIETAS社のAI面接官は、数万通りの質問から応募者を評価
- アデコ日本法人やランスタッドは、職歴と求人をAIでマッチング
- PeopleXやパーソルなどは、ガイドライン作りに着手
これらの企業は、偏見の排除や判断基準の透明化に力を入れていますが、まだまだ課題は多いのが現状です。
急増する「ディープフェイク被害」も見逃せない
性的な偽画像・偽動画の被害も深刻です。
- SNSや卒業アルバムの写真が無断で加工される
- 2023年だけで約9万5000件のわいせつ動画がネット上に確認
- 日本は被害数で世界3位という衝撃のデータも
このような事態を受け、政府はAI生成コンテンツの適正なガイドラインの整備や規制強化にも乗り出しています。
私たちにできることは?
AIが私たちの生活に深く入り込む中、「使う側の倫理とルール」がますます重要になります。
企業も利用者も、AIの力を過信しすぎず、偏見や不公平を見逃さない目を持つことが求められています。
国による調査や制度の整備が進む今こそ、AIと共にどう生きるかを、一人ひとりが考える時かもしれません。