×

社説・コラム

社説 広島サミット AIの規制 リスク踏まえルール構築を

 米新興企業が開発したチャットGPTなど生成AI(人工知能)への対応が、先進7カ国首脳会議(G7広島サミット)の重要議題に急浮上している。

 利便性が注目され、利用者が世界中で急増する一方、個人情報の不正収集や流出、偽の情報の意図的な流布などが懸念されている。社会の秩序や安全が損なわれるのを放っておくわけにはいかない―という問題意識が広がっているためである。

 先月末に群馬県であったG7デジタル・技術相会合でも、「信頼できるAI」の実現を目指す共同声明が採択された。生成AIなどの新興技術が社会に与える影響が大きいことを共通認識とし、民主主義や人権を脅かす利用への反対を表明した。

 そこまでは一致できたが、具体策には踏み込めなかった。法規制や監視の強化に動く欧州と、柔軟な対応を求める日米との間で温度差があったためだ。

 政府はきのう、AI戦略会議の初会合を開いた。出席した岸田文雄首相は「AIには経済社会を前向きに変えるポテンシャルとリスクがある」と述べた。のっけからリスクに言及したのは、マイナス面が無視できないと認識したからではないか。

 とはいえ、閣僚からは「できる限り技術の開発を阻害しない形で対応しなければならない」(西村康稔経済産業相)と、活用に前のめりな発言が目立つ。自治体や企業はAIを使った業務効率化に走り出している。

 政府は欧米よりデジタル化が遅れる現状をAI活用で打開したい思惑があるとされる。だが、この姿勢は看過できない。サミットではリスクを洗い出して、明確な規制の方向づけをすることを優先してもらいたい。

 ネット上の大量のデータを学習して回答を導き出す生成AIへの懸念は一層強まっている。人間と見分けがつかないくらいスムーズな文章だが、出てきた結果が正しいとは限らない。個人情報の無断利用も深刻だ。

 個人の尊厳やサービスを受ける消費者の安全、芸術家たちの著作権を脅かす懸念がある。学術分野でも論文や研究の不正利用が課題だ。軍事や生命工学への転用も想定される。

 AIの社会への浸透は止められない。だからこそ、こうした問題を防ぐ国際的な基準が、開発や利用の前提でなければならない。あいまいなままでは、国境を越えた活動にも悪影響を及ぼす。

 論点の一つは利用のルールだろう。AIをどう使ったかの明示や、企業や行政機関が個人情報を取り込まれない仕組みなどが求められる。子どもを中心にAIには光と影があると理解してもらう取り組みも必要だ。

 情報の出所を確認したり、幅広い意見の存在を受け入れたりすることの大切さに加え、読解力や表現力を身につけなければAIのよき使い手になれない。

 もう一つ重要な論点は、開発企業への規律の導入である。例えば、有害コンテンツや偽情報拡散といったリスクを認めさせ、改善を促すことだ。システムの中身を公開し、検証可能にする枠組みも求められよう。

 AIに依存するばかりで、情報の正しさを気に留めなくなった時、民主主義は危機を迎える。日本は議長国として、これらの論点を踏まえて議論を主導するべきだ。

(2023年5月12日朝刊掲載)

年別アーカイブ