国際会合「平和のためのAI倫理」 宗教者、研究者、AI開発企業が手を携え

AI倫理は社会的な事故を防ぐ「ガードレール」
教皇庁立グレゴリアン大学 パオロ・ベナンティ教授

パオロ・ベナンティ教授

AIシステムは膨大なデータを吸収し学習することで、人間の行動をシミュレート(模擬実験)しながら状況の変化に適応し、自らを調整します。言い換えると、機械は意思決定や選択の場で人間の代わりを果たせるようになったのです。

今日、医療分野において、AIは平均的な水準の医師を上回る精度の医療診断を下します。また、金融分野では銀行よりも正確に個人のローンの返済能力を判断します。しかし、予測能力が高まる半面、非常に複雑な計算を行うAIがなぜそうした結果を導き出したのか、人間には理解できないという側面もあるのです。

私は以前、医療に関するAIの実験に携わった経験があります。私はAIに次の質問をしました。「がんをなくす方法を教えてください」と。AIが出した答えはこうです。「人類を全て殺せばいい」。AIは目的を達成するために最も手っ取り早い方法を選びました。とても単純な事例ですが、この答えは最良ではありませんよね。このように、とても現実的とは言えない手段を排除していく「ガードレール」のような役割が必要です。これが、「AI倫理」なのです。

ガードレールは運転を阻害するものではありません。人々が事故に遭わずに目的地に着くのを助けるものです。AI倫理も同様です。ユーザーの自由を妨げるものではなく、AIによる社会的な事故や不具合を防ぐために必要なものなのです。

また、昨今注目されている生成AIは文章や画像、動画などを生み出すものですが、とてもリアルな偽コンテンツの作成も可能です。例えば政治家の偽動画を作ってフェイクニュースを広めれば、選挙や政治的決定に影響を与えることもできるのです。真偽不明の情報がネットを通じて急速に拡散し、社会に影響を及ぼす現象は、「インフォデミック」と呼ばれ、真実と虚偽の情報の区別を困難にします。疑心暗鬼の風潮は、私たちの暮らす社会の分断を招きます。生成AIは私たちが共に生きるためのつながりそのものを破壊し、互いを敵に変えてしまう危険性をはらむのです。

AIは生活の質を向上させ、複雑な問題を解決し、革新を促す一方、戦争の手段として、また、情報操作、人権侵害、不平等や差別を生み出すために悪用される可能性があります。その可能性において、諸宗教間の対話が必要です。地球上の大多数の人々のアイデンティティーと文化の根幹をなすのが、宗教だからです。宗教はAIの責任ある利用を先導し、人々の連帯と正義を促進する倫理的、精神的展望を社会に示すことができます。AIが地球の発展に貢献する道具となるよう、平和を求める私たちから準備を始めましょう。

【次ページ:市民がAIを善導する ダリオ・ギル氏】