ページの先頭です
IIJ.news Vol.181 April 2024
Chat GPTの登場以来、AIが社会的関心事となり、実用化が急速に進みつつある。
同時に、その未知の能力あるいはリスクを巡って、さまざまな検討や法整備がなされている。
IIJ 取締役 副社長執行役員
谷脇 康彦
AIを巡る動きがますます加速していて、目が離せない。対話型AIのChat GPTは誰でも手軽に試せたこともあり、2022年12月の登場からわずか2カ月で利用者が1億人を突破し、「AIが実用段階に入りつつある」ことを人々に印象づけた。
AIは、大量の学習データをもとに将来予測を行なう「予測AI(predictive AI)」と、深層学習を用いて新たなコンテンツを生成する「生成AI(generative AI)」に大別される。冒頭のChat GPTは生成AIのグループに属する対話型AIだが、それ以外にも、画像、音声、音楽などを自動的に生成するAIも多数登場している。
これまでAIを巡る議論は、どちらかというと「まだ少し先」の理念的な話が多かった。しかし、身近に利用できるAIサービスが続々と登場し、その飛躍的な利便性が注目される一方、AIが抱える課題も具体化してきている。このため、「人はAIをどのように制御していくのか、いけるのか」というAIガバナンス確保のための取り組みが各国で動き始めた。
例えば、欧州ではAI法の制定が進んでいる*1。このAI法はAIのリスクを4段階で評価し、最も危険度の高い「許容できないリスク」を有するAIは禁止する。禁止されるのは、基本的人権に対して直接的な脅威をもたらすAIであり、具体的には(意識下に訴えかける)サブリミナル技術により人の行動を歪めるAI、年齢や障害などの脆弱性につけこんで実害をもたらすAI、公的機関が主体となって個人のソーシャルスコアリングを生成するAI、公共空間で法執行目的で行なう遠隔生体識別のためのAI――以上の4つが法律に記載されている。
また、こうした「許容できないリスク」に続けて、「ハイリスク」、「限定リスク」、「最小リスク」という順にリスクを分類している。このうち「ハイリスク」のAIについては、国の安全基準への適合性評価やデータベースへの登録を行なうことを義務付ける。続く「限定リスク」のAIについては、AIがサービス提供に関与していることを利用者に通知する透明性の確保が義務化される。しかも、AI法に違反した企業はEU以外の国の企業であっても域外適用され、制裁金が課せられる。これはGDPR(一般データ保護規則)と同じで、AIを活用して欧州で事業展開をしている日本企業も注意が必要だ。ただ、AI法に規定するリスク分類の具体的な基準は未だ不明な点も多く、実際に規制が適用される2026年までは紆余曲折がありそうだ。
米国では2023年10月、バイデン大統領がAIに関する大統領令*2を公表。大統領令では「無責任なAIの利用は、詐欺、差別、バイアス、そして偽情報といった社会の害を募らせ、労働者の力を奪い、競争を阻害し、国家の安全を危険にさらす」と警告。AIに関する安全・セキュリティ基準の策定、AIによる人権侵害への対応、イノベーションや競争の促進という3項目を柱に、連邦政府として政策(ルール)を具体化する方針を示した。また、大統領府は法制化についても選択肢の1つとして考えており、超党派によるAI法制定の可能性を探っている。
中国でも2023年8月に「生成人工知能サービス管理のための規則」を施行した*3。違法コンテンツの作成禁止、差別の防止、不当な競争行為の禁止、個人の権利侵害の禁止など、盛り込まれている個別の内容は違和感のない妥当なものだが、そもそも中国で利用可能な生成AIは「社会主義の中核的価値観を遵守」するものに限定されており、実質的に海外の生成AIの利用は排除されている。
こうした国際的な法規制(ハードロー)制定の動きに対し、日本は強制力のないガイドライン(ソフトロー)の策定を基本とし、法規制からは距離を置いている*4。確かに課題が現実化する前に先回りして規制することで技術革新を妨げることは避けるべきだが、すでにAI利用が多くの分野で急速に進展し、EUや中国で法規制が進むなか、法規制を含む多様な選択肢を検討の俎上にのせるべきだという指摘も多い。
AIの持つリスクについての具体的な議論も進んでいる。
まずAIのモデル崩壊(model collapse)という問題*5。AIの学習プロセスにおいては、出現率の低い選択肢が何世代かを経て次第に無視されたり、間違った出力が増加していく可能性がある。こうした出力結果を再度AIの学習データに加えていくと、当初とはまったく異なるAIに変貌してしまい、少数グループを差別したり、現実を歪曲した出力を繰り返すようになる。AIが出力した玉石混交のデータが幾何級数的に増え、結果としてサイバー空間におけるデータ汚染、つまり学習データの劣化が進むことで、AIが退化・崩壊していく……。こうした事態に対処するためには、あくまで人間が作成したデータに限って学習データに採用するなどの防御策が必要になる。
次にAIに対するサイバー攻撃。学習データに汚染データを挿入して、間違った出力をさせるよう仕向けるデータポイズニング(Data Poisoning)攻撃など、生成AIに対するサイバー攻撃の可能性が多数指摘されている。一般の人々の目には触れないダークウェブの世界ではWormGPTなど、マルウェアを自動的に作成するAIの存在も報告されている。
さらに著作権の問題*6。AIの開発(学習)段階の学習データやAI生成物の著作権について、国内では文化審議会著作権分科会で議論が行なわれている。日本の法制度では、基本的にAI開発のための学習データの利用は著作権者の許諾なく行なうことができ、またAI生成物の著作権は既存の著作物との類似性や依拠性が基準とされる。しかし、現実にはグレーゾーンも多く、判断がむずかしい。
米国では、2023年12月、ニューヨークタイムズが「自社の記事がAI開発のために無断使用されている」としてオープンAIとマイクロソフトを相手どってニューヨーク連邦地裁に提訴した*7。オープンAI側は記事の学習はフェアユース(例えば、著作物の利用目的などが異なる場合は著作権侵害とはならない)に該当すると主張している。
安全保障領域でもAIについて議論が始まっている。2023年2月にオランダ・ハーグで開催された「軍事領域における責任あるAI会議(REAIMS Summit)」において、米国は軍事分野でのAI利用について「国際法の義務に合致した形でのみ使用する」といった自主的な約束(コミットメント)を各国が策定・公表することを提案*8。現在、日本を含む51カ国がこの提案に賛同しているが、議論は緒についたばかりだ。
英国の物理学者である故スティーヴン・ホーキング博士は、かつて「AIは制御不能になりかねない」ものであり、「AIのような強力なテクノロジーについては、最初に計画を立て、うまくいく道筋を整えておく必要がある。そのチャンスは一度しかないかもしれない。」と警告した*9。まさに今、世界の叡智を結集してAIガバナンスのあり方を考えていくことが求められている。
ページの終わりです