中国AIの第一人者に聞く「中国のAI開発状況と超えてはならない一線」

AI要約

張宏江はAIの安全性に警鐘を鳴らし、人類存亡の危機を避けるためにAI開発に対策を講じる必要性を強調している。

AI開発のリスクとして自己増殖や欺瞞、大量破壊兵器製造の可能性を挙げ、国際協力が不可欠であると訴えている。

張宏江はAIの安全性に関する国際ダイアローグで多くの学びを得た経験から、欧米の技術者たちの取り組みや政策への関心を高く評価している。

中国AIの第一人者に聞く「中国のAI開発状況と超えてはならない一線」

英紙が北京智源人工智能研究院の創業者で現理事長の張宏江に単独取材。張がAI開発の加速に警鐘を鳴らす理由と、最新の中国のAI開発状況やその態度について聞いた。

北京智源人工智能研究院(北京人工知能アカデミー:BAAI)の理事長、張宏江(ジャン・ホンジャン)はコンピュータ科学者だ。そしていまでは、人工知能(AI)の安全な開発がいかに重要であるかをもっとも声高に訴える中国人経営者のひとりでもある。

張はデンマークで博士号を取得すると、シンガポールと米国カリフォルニア州パロアルトで数年にわたって働いた。2000年代に入ると中国に帰国し、マイクロソフト・リサーチアジア(MSRA)の設立に携わったのち、ソフトウェア開発販売会社キングソフトを中国有数のソフトウェア企業に育て上げた。

2016年に同社から身を引くも、わずか2年で中国ハイテク業界の最前線に復帰し、業界と研究者を結集するべく非営利団体BAAIを設立した。

近年は、人工知能が人類を脅かすことのないよう対策を講じるべきだとし、中国で先頭に立ってAI規制を強く求めている。英「フィナンシャル・タイムズ」紙の記者はこのたび、AI対策、そして中国が向き合う機会と課題を巡って国際社会が協調することの重要性について、同氏に話を聞いた。

──AIガバナンスに対して非常に大きな関心をお持ちのようですね。

学会、産業界、そして政府の認識を高めるべく多くの時間を費やし、AIを巡る潜在的なリスクにばかり目を向けるべきではないと訴えてきました。確かに、誰もが知るところとなったフェイクニュースや偏見、偽情報などはAIの乱用です。

それよりも懸念すべきは、AIが人類存亡の危機をもたらす危険性を秘めていることです。より優れた未来のAIシステムをどのように設計・制御すれば、人間の手を離れて制御不能に陥ることを防げるのでしょうか。

3月に北京で開催したカンフェレンスでは、人類存亡の危機とは何かを定義しました。最大の成果は、超えてはならない一線を引いたことです。

たとえば、AIシステムが自己増殖や自己改良をするようなことがあってはなりません。これが超えてはならない一線で、きわめて重要です。システムが自らの複製をつくったり、自分で改良したりし始めれば、手に負えなくなります。

ふたつめは欺瞞です。AIシステムは絶対に、人間を欺けるようになってはいけません。

もうひとつは言うまでもないことですが、AIシステムが大量破壊兵器、化学兵器を製造できるようになってはいけません。さらに、AIシステムが人間よりも優れた説得力をもつようになることも防ぐ必要があります。

世界的な研究コミュニティは、一致団結して各国政府に協力を呼びかけなくてはなりません。AIを巡るこうしたリスクは一国のものではなく、人類全体が憂慮すべき大きなものだからです。

私は2023年10月に英国で開かれたInternational Dialogue on AI Safety(IDAIS:AIの安全性に関する国際ダイアローグ)で、実に多くの学びを得ました。IDAISは下から上へと働きかけるかたちをとっています。技術的な取り組みで、政策に限定していません。

欧米、とりわけ欧州では、この分野に長年取り組んできた技術者たちがいることを知りました。彼らは、AIシステムに秘められたリスクを測定したり定義したりできるシステムを多数、開発しています。先頭に立っているのは英国で、2023年は世界各国の政府関係者を集め、初のAIサミットを開催しました。

──そうした議論で耳にする中国の一流科学者や政策立案者の見解は、西側の見解と足並みがそろっていますか。